Er mennesker eller AI bedre til å oppdage Deepfakes-videoer?
Kilde: Olya Kobruseva/ Pexels
Teknologien for å lage realistiske falske videoer ved hjelp av AI blir stadig mer sofistikert, noe som gjør det vanskelig, om ikke umulig, å avgjøre om lyd, bilder eller videoer er ekte. Kan mennesker eller maskiner fortelle om en video er autentisk, AI-generert eller endret? Har teknologien kommet til et punkt hvor det ikke er noen idiotsikker måte å identifisere AI-endrede videoer på?
Manipulerte videoer er ikke et nytt problem; det er viktig å merke seg at de kan lages uten AI. Utviklingen av AI, spesielt dyp nevrale nettverk og generative motstridende nettverk, har laget sofistikerte verktøy for realistiske falske videoer. En type AI-endret video er deepfakes.
Det finnes flere typer dypfalske videoer, inkludert "ansiktsbytte", der et ansikt videopodes inn på en annen person for å få den personen til å se ut som om de sier eller gjør ting som de faktisk ikke gjorde si eller gjør. "Lip-sync"-videoer er hvor munner er laget for å bevege seg for å matche et lydopptak. "Puppet-master"-videoer er der videoer av en person animeres basert på bevegelsene og ansiktsuttrykkene til noen andre som sitter foran et kamera. (
Se dette eksemplet.)AI-modeller må trenes på mye bilde- og videodata, så mål for deepfakes er vanligvis kjendiser og politikere som har mye offentlig tilgjengelig opptak.
Skuespiller Bruce Willis skapte nylig overskrifter etter at det ble rapportert at han hadde solgt rettighetene til ansiktet sitt til et russisk deepfake-selskap Deepcake, selv om Willis agent har benektet disse rapportene. Ansiktet til Willis skal ha blitt brukt i en russisk reklamefilm laget med dypfalske "ansiktsbytte"-teknologi.
Val Kilmer jobbet med programvareselskapet Sonantic for å bruke AI til å lage en følelsesmessig og naturtro modell av talestemmen hans før behandling av halskreft.
Respeecher, en oppstart av stemmekloning AI, har opprettet en algoritme å gjenskape stemmen til Darth Vader fra 1977.
Etter hvert som bilder og videodata fra enkeltpersoner blir mer tilgjengelig på nettet, kan problemet med deepfakes bli et mer utbredt problem for offentlige personer og privatpersoner. Dypfalske verktøy i feil hender kan potensielt krenke personvernrettigheter, spre desinformasjon og forårsake alvorlig økonomisk ustabilitet og politisk uro.
Forskere og teknologer jobber med algoritmer som automatiserer oppdagelsen av falskt visuelt innhold. AI-modeller har blitt i stand til å utkonkurrere menneskelige eksperter i et bredt spekter av aktiviteter, fra sjakk til medisinsk diagnostisering, så AI har potensialet til å bidra til å løse dette problemet.
Behovet for nøyaktig og automatisert oppdagelse av dype forfalskninger har vært bekymrende nok til at store selskaper, inkludert Facebook, Microsoft og Amazon tilbød 1 000 000 dollar i premiepenger til de mest nøyaktige deepfake-deteksjonsmodellene under de Deepfake Detection Challenge-konkurransen fra 2019 til 2020. Den beste modellen var 82,56 prosent nøyaktig i forhold til datasettet med videoer som var offentlig tilgjengelig for deltakerne. I "black box-datasettet" med 10 000 uforutsette videoer som ikke er tilgjengelige for deltakerne på forhånd, presterte imidlertid den ledende modellen bare med 65,18 prosent nøyaktighet.
En nylig studere fant at vanlige menneskelige observatører og ledende datasyns dypfalskedetektering AI-modeller er like nøyaktige, men gjør forskjellige typer feil. Folk som hadde tilgang til maskinmodellspådommer var mer nøyaktige, noe som tyder på at AI-assistert samarbeid beslutningstaking kan være nyttig, men vil neppe være idiotsikker.
Forskere fant at når AI gir feil spådommer og mennesker har tilgang til modellenes spådommer, ender mennesker opp med å revidere svarene sine feil. Dette antyder at maskinspådommer kan påvirke menneskelig beslutningstaking - en viktig faktor når man designer systemer med menneskelig AI samarbeid.
Problemet med forfalskede medier eksisterte lenge før disse AI-verktøyene. Som alle teknologiske fremskritt finner folk både positive og negative applikasjoner. AI har skapt spennende nye muligheter med applikasjoner i kreative og filmskapende industrier og øker samtidig behovet for pålitelig deteksjon, beskyttelse av personvernrettigheter og risiko ledelse mot skadelige brukstilfeller.
Nåværende forskning tyder på at mennesker og maskinmodeller er ufullkomne til å oppdage AI-endrede videoer. Ett svar kan være en samarbeidstilnærming mellom AI og menneskelig deteksjon for å løse manglene til hver. Siden det er usannsynlig at noen deteksjonsmodell er idiotsikker, utdanning om deepfake-teknologi kan hjelpe oss å bli mer bevisste på at å se ikke alltid er å tro – en realitet som var sann lenge før ankomsten av deepfake AI-verktøyene.
Copyright © 2022 Marlynn Wei, MD, PLLC. Alle rettigheter forbeholdt.
Etter hvert som grensene mellom ekte og falske visker ut, jager amerikanerne i økende grad ideen om autentisitet. Det første trinnet kan være å vurdere selverkjennelse, sannhet og andre byggesteiner på veien til personlig vekst.