Disney laver første deepfakes i megapixel-opløsning
De seneste år er brugen af deepfake-videoer skabt med deep learning eksploderet på internettet. Videoerne viser både kendte og almindelige mennesker, der gør og siger ting, som de aldrig har sagt eller gjort. Barack Obama kalder Donald Trump for en »dipshit«, fodboldspilleren David Beckham kan pludselig tale ni forskellige sprog, og almindelige piger bliver udsat for hævnporno ved at få billeder fra sociale medier sat ind i pornofilm.
Fælles for den nye brug af deep learning er, at videoerne som regel er i forholdsvis lav opløsning. Det ser ok ud på en smartphone med en lille skærm, men bliver de vist på en stor fladskærm ser det grynet og falsk ud og biograflærredet er helt uden for kategori.
I en ny video og et konference-paper, som bliver præsenteret på 2020 Eurographics Symposium on Rendering viser udviklere fra Disney og det tekniske universitet ETH Zurich, hvordan de er i stand til at lave vellignende deepfake-videoer i en opløsning på 1024x1024.
Til sammenligning er billederne fra det populære open source deepfake model DeepFakeLab kun 256x256 pixels.
Vinkler og lys begrænser
Disneys løsning minder på mange måder om de eksisterende metoder til deepfake-videoer, hvor der byttes om på to individer, men ansigtets udtryk fastholdes. Disneys nye algoritme afviger dog også introducerer nye metoder til at lave deep-fake videoer i megapixel-opløsning.
Blandt andet starter algoritmen med at modificere den originale billedkilde, så det er lettere at bytte ansigtet ud med et andet. Mens deepfakes i dag mest er kendt for at blive brugt til hævnporno og fake news, så er Disneys interesse i deepfakes formentligt noget mere uskyldig.
De vil gerne automatisere og reducere omkostningerne til visuelle effekter. Da de to afdøde skuespillere Carrie Fischer og Peter Cushing genopstod på biograflærredet i Star Wars-filmen Rouge One, som henholdsvis Prinsesse Lea og Imperial Grand Moff Tarkin, krævede det en hybrid af forskellige visuelle effekter, blandt andet digital animation, levende skuespillre og performance capture teknologi.
Den er den proces som Disney håber at kunne automatisere i fremtiden med neurale netværk.
Men selvom Disneys præsentation ser imponerende ud, så er de alligevel begrænset af en del forbehold. Billederne viser kun mennesker i velbelyste omgivelser, som kigger direkte ind i kameraet. Vinkler og lys giver begrænsninger og derfor kommer der nok også til at gå et stykke tid før deep learning kan erstatte de mere konventionelle visuelle effekter der bruges i filmindustrien.
Eksplosiv udvikling
Deepfake-begrebet så for første gang dagens lys i 2017, da brugere på Reddit begyndte at dele deepfakes på det sociale medie. Siden har algoritmerne bag deepfakes foretaget kvantespring på meget kort tid.
Hastighed er netop et definerende træk ved udvikling af deepfake-teknologi, mener Morten Goodwin, der er lektor ved Universitetet i Agder i Norge og viceleder af universitetets Centre for Artificial Intelligence Research.
»Den udvikling, vi har set på bare få år, er, at vi er gået fra at kunne generere billeder i frimærkestørrelse til fantastiske malerier,« fortalte han Version2 tidligere i år.
»Selv hvis udviklingen går langsommere fra i dag, så er der udsigt til modeller, der om få år leverer helt utrolige resultater. Det vil blive mere og mere vanskeligt at skelne mellem falske og ægte videoer. Og der kan komme en dag, hvor man ikke længere kan opdage dem.«
Udviklingen giver ikke kun panderynker hos de mennesker der lever af at alle visuelle effekter, men også hos politikere. For når deepfake-algoritmerne bliver bedre og mere tilgængelige, så risikerer det at underminere den tillid, som er forudsætningen for et hvert demokrati. Hvordan skal vi kunne stole på hvad hinanden siger, når vi ikke ved at der er tale om ægte eller falske billeder.

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.