Forsker: Deepfake-tendensen vil eksplodere i år

Illustration: Jakob Møllerhøj
Der kan også være nyttige brugsområder for teknologien bag.

Sidste år blev mange for alvor opmærksomme på fænomenet ’deepfake’, efter at der på en temmelig troværdig måde og med ret enkelt udstyr blev udgivet en pornovideo med skuespilleren Daisy Ridley, selv om hun ikke var med i videoen. Pornoskuespillerens ansigt var simpelthen skiftet ud med Daisy Ridleys ansigt.

»’Deepfake' er et nyt udtryk, hvor der bruges en metode inden for kunstig intelligens, der hedder Generative Adversarial Network (GAN) for at skabe falsk indhold,« fortæller forsker Alex Tidemann fra Telenor.

»Med teknologien kan du lave fotos af folk, som aldrig har eksisteret, men ser ud, som om de er virkelige. Du kan også bruge den til at lave videoer, hvor nogen siger noget, de aldrig har sagt i virkeligheden.«

Oplæring og bevidsthed

Tidemann mener, at falske videoer bliver en trend i 2019 pga. de faldende omkostninger, men han er også sikker på, at deepfake vil være et forbigående problem og måske endda reducere problemet med deling af opdigtede nyheder (fake news).

»Jeg tror, at det vil føre til en øget bevidsthed om, hvor ting bliver publiceret. Det afgørende element er oplæring. Uden oplæring – eller hvis forfalskningen er virkelig godt lavet – vil den stadig kunne forvirre mange mennesker.«

Helt ny teknologi

GAN er en af de få helt nye innovationer inden for kunstig intelligens, idet teknikken blev opfundet i 2016. De fleste andre AI-teknologier er bygget på principper opfundet i 80’erne og 90’erne.

Og så er deepfake på ingen måde det eneste, GAN-teknologien kan bruges til – de bruger den f.eks. også internt i Telenor, fortæller Alex Tidemann.

»Vi kan bruge den samme metode til at træne datasæt, og vi kan træne et GAN til at lave eksempler, som svarer til det originale datasæt, uden at vi behøver at have de faktiske data. Måske ser vi et interessant brugsmønster i en anden forretningsenhed, men at vi af forskellige årsager ikke må hente data ud af enheden. Så kan vi træne vores model hos denne forretningsenhed. Modellen har nemlig ingen identificerende egenskaber, men den replikerer de samme statistiske egenskaber som det oprindelige datasæt.«

»Det er et godt eksempel på, hvordan vi kan bruge det internt og håndtere mange af problemerne, vi møder, når det gælder privacy og sikkerhed,« fortæller Alex Tidemann.

Artiklen findes i længere udgave på digi.no.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (0)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Log ind eller Opret konto for at kommentere
IT Company Rank
maximize minimize