Hvem trives i en verden av dype faker og feilinformasjon?
Kilde: cottonbro / Pexels
Kunstig intelligens-endrede videoer og bilder øker eksponentielt, og noen anslår at deepfakes på nettet er dobling hver sjette måned.
AI-fremskritt har gjort det enklere å lage videoer og lyd av hendelser som aldri har skjedd. Folk trenger ikke lenger dyr og sofistikert teknologi for å lage syntetiske medier. Syntetiske medier er alt innhold (f.eks. tekst, bilder, videoer) som er helt eller delvis opprettet ved hjelp av AI.
Løgnerens utbytte: Hvordan dype forfalskninger endrer måten vi ser på bevis
Dette klimaet med kraftig generativ AI har skapt et fenomen kalt "løgnerens utbytte", som beskriver fordelen for de som hevder at noe er falskt, til og med objektive bevis.
I en verden av AI-genererte videoer og lyd kommer løgnerens utbytte til gode for mennesker som bruker denne teknologien til å bestride og heve skepsis til objektive bevis; med andre ord en strategi for å fornekte virkeligheten.
Begrepet «løgners utbytte» ble laget av jusprofessorene Bobby Chesney og Danielle Citron
i 2018 og beskriver strategien med å så tvil om objektive bevis som falske eller manipulerte. Dette fenomen er en av feilinformasjon om feilinformasjon og er til fordel for de som bevæpner offentlig skepsis og utnytter et klima av usikkerhet som et middel til å unnslippe ansvarlighet.Nylig studier, forskere har funnet ut at politikere som bruker dette strategi å bestride troverdige bevis reist i en skandale er mer i stand til å få støtte ved å bestride tekstbasert bevis. Dette fungerer imidlertid ikke like effektivt for videobevis.
Dette kan endre seg etter hvert som publikum blir mer kjent med den potensielle manipulasjonen av videoer og AI-endrede videoer blir mer vanlig. Forskere fant også at å hevde objektive bevis var falske er mer effektivt for å få støtte enn for politikeren å tie eller be om unnskyldning.
Som autentisitet av videoer blir stadig vanskeligere å bevise, vil løgnerens utbytte sannsynligvis fortsette å betale seg.
I domstolene, advokater bruker allerede «det dype falske forsvaret» for å så tvil om video- og lydbevis i rettssaker, inkludert en nylig sak som involverer uttalelser fra et 2016-innspilt videointervju av Elon Musk. Advokatene til Tesla forsøkte å bruke "deepfake-forsvaret" for å så tvil om uttalelsene i videoen.
Dommeren beskrev senere denne strategien som "dypt urovekkende" og aksepterte ikke det som ble sett på som "gjemmer seg bak potensialet for deres innspilte uttalelser som er en dyp falsk for å unngå å ta eierskap til det de sa og gjorde." Denne typen forsvar vil sannsynligvis bli brukt oftere, og som en resultat, vil domstoler og juryer sannsynligvis forvente flere bevis for autentisering eller rettsmedisinsk ekspertverifisering av visse videoer, lyd eller digitale bevis.
Selv om teknologien er ny, har kampen mellom de som søker feilinformasjon og de som prøver å oppdage den gjennom autentisering langvarig. I dette tilfellet holder selve AI-teknologien som produserer deepfakes løsningen for å oppdage det, skape en spenning mellom deepfake-oppretting og deepfake-deteksjon som har blitt merket som en AI-arm løp.
Deepfakes and the Erosion of Trust: How to Combat the Liar's Dividend
En strategi for å bekjempe løgnerens utbytte er å fortsette å investere i, stimulere til og utvikle mer pålitelig, rimelig og tilgjengelig teknologi for dypfalsk-deteksjon. Tidligere forskning har funnet at mennesker og AI-modeller er ufullkomne til å identifisere dypfalske videoer.
Imidlertid gjør mennesker og AI-modeller forskjellige typer feil. Dette antyder at menneskelig-AI samarbeid kan være en nyttig løsning for å autentisere videoer. Sterkere og mer pålitelig deepfake-deteksjonsteknologi vil gi publikum mer selvtillit i verifiserte og autentiserte bevis.
Det vil imidlertid ikke stoppe folk fra å prøve å skape skepsis til objektive bevis eller selve autentiseringsteknologien.
En annen strategi er å øke offentligheten utdanning og bevissthet om løgnerens utbytte. Dette vil ha den doble fordelen av å hjelpe folk å lære hvordan de kan fastslå påliteligheten til påstander om videoer og også beskytte forbrukere mot svindel som bruker dype falske.
Som grensen mellom virkelighet og bedrag blir stadig mer uklare, vil forventningen om bevis på hva som er ekte utvikle seg. Håpet er at folk kan justere sin bevissthet og lære å tilpasse seg denne nye usikkerheten.
Marlynn Wei, MD, PLLC © 2023
Se min relaterte artikkel
Er mennesker eller AI bedre til å oppdage dypfalske videoer
Etter hvert som grensene mellom ekte og falske visker ut, jager amerikanerne i økende grad ideen om autentisitet. Det første trinnet kan være å vurdere selverkjennelse, sannhet og andre byggesteiner på veien til personlig vekst.