Forsker: Deepfake-tendensen vil eksplodere i år

23. januar 2019 kl. 15:05
Forsker: Deepfake-tendensen vil eksplodere i år
Illustration: Jakob Møllerhøj.
Der kan også være nyttige brugsområder for teknologien bag.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Sidste år blev mange for alvor opmærksomme på fænomenet ’deepfake’, efter at der på en temmelig troværdig måde og med ret enkelt udstyr blev udgivet en pornovideo med skuespilleren Daisy Ridley, selv om hun ikke var med i videoen. Pornoskuespillerens ansigt var simpelthen skiftet ud med Daisy Ridleys ansigt.

»’Deepfake' er et nyt udtryk, hvor der bruges en metode inden for kunstig intelligens, der hedder Generative Adversarial Network (GAN) for at skabe falsk indhold,« fortæller forsker Alex Tidemann fra Telenor.

»Med teknologien kan du lave fotos af folk, som aldrig har eksisteret, men ser ud, som om de er virkelige. Du kan også bruge den til at lave videoer, hvor nogen siger noget, de aldrig har sagt i virkeligheden.«

Oplæring og bevidsthed

Tidemann mener, at falske videoer bliver en trend i 2019 pga. de faldende omkostninger, men han er også sikker på, at deepfake vil være et forbigående problem og måske endda reducere problemet med deling af opdigtede nyheder (fake news).

Artiklen fortsætter efter annoncen

»Jeg tror, at det vil føre til en øget bevidsthed om, hvor ting bliver publiceret. Det afgørende element er oplæring. Uden oplæring – eller hvis forfalskningen er virkelig godt lavet – vil den stadig kunne forvirre mange mennesker.«

Helt ny teknologi

GAN er en af de få helt nye innovationer inden for kunstig intelligens, idet teknikken blev opfundet i 2016. De fleste andre AI-teknologier er bygget på principper opfundet i 80’erne og 90’erne.

Og så er deepfake på ingen måde det eneste, GAN-teknologien kan bruges til – de bruger den f.eks. også internt i Telenor, fortæller Alex Tidemann.

»Vi kan bruge den samme metode til at træne datasæt, og vi kan træne et GAN til at lave eksempler, som svarer til det originale datasæt, uden at vi behøver at have de faktiske data. Måske ser vi et interessant brugsmønster i en anden forretningsenhed, men at vi af forskellige årsager ikke må hente data ud af enheden. Så kan vi træne vores model hos denne forretningsenhed. Modellen har nemlig ingen identificerende egenskaber, men den replikerer de samme statistiske egenskaber som det oprindelige datasæt.«

»Det er et godt eksempel på, hvordan vi kan bruge det internt og håndtere mange af problemerne, vi møder, når det gælder privacy og sikkerhed,« fortæller Alex Tidemann.

Artiklen findes i længere udgave på digi.no.

Ingen kommentarer endnu.  Start debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger