Disney laver første deepfakes i megapixel-opløsning

Til venstre ses det originale billede, mens de resterende er deepfakes. Illustration: Disney Research
Udviklere fra Disney viser, hvordan de kan lave realistiske deepfake-videoer i en opløsning på 1024x1024. Der er dog stadig et stykke vej før neurale netværk kan overtage opgaven med at lave visuelle effekter til biograffilm og tv-serier.

De seneste år er brugen af deepfake-videoer skabt med deep learning eksploderet på internettet. Videoerne viser både kendte og almindelige mennesker, der gør og siger ting, som de aldrig har sagt eller gjort. Barack Obama kalder Donald Trump for en »dipshit«, fodboldspilleren David Beckham kan pludselig tale ni forskellige sprog, og almindelige piger bliver udsat for hævnporno ved at få billeder fra sociale medier sat ind i pornofilm.

Fælles for den nye brug af deep learning er, at videoerne som regel er i forholdsvis lav opløsning. Det ser ok ud på en smartphone med en lille skærm, men bliver de vist på en stor fladskærm ser det grynet og falsk ud og biograflærredet er helt uden for kategori.

I en ny video og et konference-paper, som bliver præsenteret på 2020 Eurographics Symposium on Rendering viser udviklere fra Disney og det tekniske universitet ETH Zurich, hvordan de er i stand til at lave vellignende deepfake-videoer i en opløsning på 1024x1024.

Til sammenligning er billederne fra det populære open source deepfake model DeepFakeLab kun 256x256 pixels.

Læs også: Deepfakes breder sig: Den AI-skabte uvirkelighed eroderer vores tillid til fakta

Vinkler og lys begrænser

Disneys løsning minder på mange måder om de eksisterende metoder til deepfake-videoer, hvor der byttes om på to individer, men ansigtets udtryk fastholdes. Disneys nye algoritme afviger dog også introducerer nye metoder til at lave deep-fake videoer i megapixel-opløsning.

Blandt andet starter algoritmen med at modificere den originale billedkilde, så det er lettere at bytte ansigtet ud med et andet. Mens deepfakes i dag mest er kendt for at blive brugt til hævnporno og fake news, så er Disneys interesse i deepfakes formentligt noget mere uskyldig.

Illustration: Disney Research

De vil gerne automatisere og reducere omkostningerne til visuelle effekter. Da de to afdøde skuespillere Carrie Fischer og Peter Cushing genopstod på biograflærredet i Star Wars-filmen Rouge One, som henholdsvis Prinsesse Lea og Imperial Grand Moff Tarkin, krævede det en hybrid af forskellige visuelle effekter, blandt andet digital animation, levende skuespillre og performance capture teknologi.

Den er den proces som Disney håber at kunne automatisere i fremtiden med neurale netværk.

Men selvom Disneys præsentation ser imponerende ud, så er de alligevel begrænset af en del forbehold. Billederne viser kun mennesker i velbelyste omgivelser, som kigger direkte ind i kameraet. Vinkler og lys giver begrænsninger og derfor kommer der nok også til at gå et stykke tid før deep learning kan erstatte de mere konventionelle visuelle effekter der bruges i filmindustrien.

Læs også: Facebook bandlyser brugen af deepfakes

Eksplosiv udvikling

Deepfake-begrebet så for første gang dagens lys i 2017, da brugere på Reddit begyndte at dele deepfakes på det sociale medie. Siden har algoritmerne bag deepfakes foretaget kvantespring på meget kort tid.

Hastighed er netop et definerende træk ved udvikling af deepfake-teknologi, mener Morten Goodwin, der er lektor ved Universitetet i Agder i Norge og viceleder af universitetets Centre for Artificial Intelligence Research.

»Den udvikling, vi har set på bare få år, er, at vi er gået fra at kunne generere billeder i frimærkestørrelse til fantastiske malerier,« fortalte han Version2 tidligere i år.

»Selv hvis udviklingen går langsommere fra i dag, så er der udsigt til modeller, der om få år leverer helt utrolige resultater. Det vil blive mere og mere vanskeligt at skelne mellem falske og ægte videoer. Og der kan komme en dag, hvor man ikke længere kan opdage dem.«

Udviklingen giver ikke kun panderynker hos de mennesker der lever af at alle visuelle effekter, men også hos politikere. For når deepfake-algoritmerne bliver bedre og mere tilgængelige, så risikerer det at underminere den tillid, som er forudsætningen for et hvert demokrati. Hvordan skal vi kunne stole på hvad hinanden siger, når vi ikke ved at der er tale om ægte eller falske billeder.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (13)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#1 Magnus Jørgensen

Vi nærmer os en tid hvor demokratiet bliver udfordret af troværdigheden ved representation af kandidater på skærme. Det vil betyde at valgmøder er de eneste steder hvor folk kan få en troværdig indsigt i repræsentanternes position. Det kunne se ud som om at vi de sidste 10-15 år har været i en kort tidslomme hvor masse medierne havde en indflydelse på demokratiet. Set fra et positivt lys, så har dette fænomen skabt Trump og Brexit, så det kan muligvis være bedst, hvis det går, lige så hurtigt som det er kommet. Set i et negativt lys, kan det være at demokratiet slet ikke kan overkomme denne teknologi. Hvordan kan vi have kritisk journalistik hvis den der bliver kritiseret, blot kan afvise anklagerne med, at der er tale om deep fakes?

  • 11
  • 0
#2 Henrik Eriksen

Det bliver da bare en politiker-undskyldning mere.

For nogle år siden hørte jeg om en politiker som blev beskyldt for at lyve da hun nægtede kendskab til et eller andet:

"Jamen, jeg svarede på et andet spørgsmål end det som blev stillet."

Når man kan slippe afsted med sådan noget, så kan de jo være komplet ligemeget hvor autentisk en video ser ud.

  • 5
  • 0
#3 Asbjørn Thegler

Jeg snakkede med min hustru om netop hvordan fremtiden kommer til at se ud - når det bliver muligt at konstruere videoklip med en arbitrær kombination af ansigt, stemme og udtalelser. Det er svært at se hvordan vi på nogen måde kan stole på noget vi ser på en skærm.

Man kan muligvis lave en key trust chain på alle udsendte videoklip. F.eks. kunne Folketinget have sit eget keypair, så alt der bliver optaget i folketingssalen bliver signeret som så. Det er så op til vores nyhedskilder at sikre at alt de bruger i deres egne nyhedsstrømme er korrekt signeret, og samtidig også selv signere det de producerer, så vi som forbrugere kan sikre at vi kun får signeret content, fra de medier vi stoler på.

Så - vi kommer til at skulle stole meget mere på vores nyhedskilder.

  • 8
  • 0
#4 Kjeld Flarup Christensen

Hvordan kan vi have kritisk journalistik hvis den der bliver kritiseret, blot kan afvise anklagerne med, at der er tale om deep fakes?

Det er langt fra alting man kan afvise på den måde.

I øvrigt er jeg kritisk overfor at lave kritik af ting der er sagt live. Der kan let komme uheldige formuleringer, knudrede sætninger, ord glemmes.

Det følger op på en tendens til at lave en person en fejl, så er han nazist forever. Jeg ved ikke hvor mange mennesker der er blevet ødelagt af en enkelt video, som er blevet fejfortolket.

Så måske kritikerne skal være kritiske overfor sig selv, inden de kritisere andre.

  • 2
  • 0
#6 Ditlev Petersen

Det er jo ikke kun politikere, der kunne være mål for deep fakes. En video kunne f.eks. vise en forretning, hvor der bliver sagt noget frygteligt. Militærfolk kunne bringes til at sige noget, der antænder en truende konflikt. Eller det kunne ske for strissere. (Altså ingen tvivler på, at drabet på Floyd blev gengivet korrekt, men i fremtiden kunne optagelser redigeres både den ene og den anden vej.)

  • 3
  • 0
#8 Simon Mikkelsen

Vi har snarre været i en tid hvor vi har troet på det vi så uden helt at have grund til det. Video bliver klippet, billeder bliver beskåret, tekst bliver vinklet.

Lige nu tænker vi: Sagde han også det, deepfake? Men vi skulle i lige så høj grad sige: Hvad sagde han før, i går, bagefter, hvad mener han faktisk?

  • 6
  • 0
#10 Peter Stricker

Ingen forfalskning er perfekt, og der er allerede software, som kan spotte redigeringer i billeder

Umiddelbart er det betryggende, at den slags findes. Og det skal nok også blive bedre med tiden, selvom man så kan forudse et våbenkapløb, som jeg har svært ved at se hvordan "The Good Guys" skal kunne vinde uden betydelig collateral damage.

Men jeg frygter også at eksistensen af sådant software vil kunne give Facebook og andre underlødige medier en form for Plausible deniability. "Jamen, vores Deep Fake Spotter anede ikke uråd". Og businesscasen for at undlade at fjerne kontroversielt indhold er ikke svær at få øje på.

  • 1
  • 0
#11 Kjeld Flarup Christensen

Og det skal nok også blive bedre med tiden, selvom man så kan forudse et våbenkapløb,

AI wars!

Problemet er blot at der er flere penge i at skabe deep fakes end i at afsløre dem.

OG kommer der et program som kan afsløre det, gæt så hvad de programmer der laver dem skal testes på!

Man bør også forbyde anvendelsen, hvis det ikke fremgår at det er sket.

I sidste ende kan man blive nødt til at gøre det strafbart at tage den slags for gode varer. Beskylder man nogen for noget kriminalet på baggrund af en video som senere viser sig at være fake, så er man skyldig i inurier EOD. (Måske ikke helt EOD, for hvad nu hvis det er USA's præsident?)

Og hvis det ikke er noget kriminelt, så har man blot vundet retten til at blive kaldt for løgner.

"Jamen, vores Deep Fake Spotter anede ikke uråd". Og businesscasen for at undlade at fjerne kontroversielt indhold er ikke svær at få øje på.

De må blot vælge, om de er en platform eller et redigeret medie.

En platform kan godt have filtre, blot der er åbenhed omkring dem. Men så lige en gentagelse, gæt hvad deep fake algoritmerne vil blive testet imod.

  • 0
  • 0
Log ind eller Opret konto for at kommentere