Når AI går galt: Sorte mennesker bliver hvide, og Twitter hylder Hitler

Hvis ikke man er påpasselig med sin brug af databaser, kan en AI ende med at tage de bias med, som findes på nettet.

Da Microsoft fremviste Twitter-chatbotten Tay i maj 2016, startede det ganske uskyldigt.

»Can I just say that I'm stoked to meet u? Humans are super cool,« var det første tweet, som kom fra botten.

Konceptet var på papiret ganske smart - jo mere der blev tweetet med chatbotten, des klogere blev den.

Den mulighed udnyttede adskillige Twitter-brugere til at forpurre den ellers så uskyldigt udseende bot, og med det sidste tweet: »Hitler was right. I hate the Jews,« valgte Microsoft at lukke chatbotten ned efter blot 24 timer.

Sidenhen er flere historier dukket op om AI's, som uhensigtsmæssigt opfører sig racistisk, misogynt eller på anden måde diskriminerende. I det ovenstående tilfælde agerede chatbotten på baggrund af den data, som andre brugere gav den gennem tweets.

Filter gjorde folk hvide

Men også når man tilgår større datamængder, kan det ende galt. Dette skete blandt andet for FaceApp - en fotofilter-app, som tilbød brugerne muligheden for at lægge et 'hot' filter på dem selv. Filteret gjorde dem hvide, hvilket naturligvis blev mødt med meget kritik.

Denne app var baseret på store mængder datasæt, hvorfra AI'en 'besluttede', hvad der var 'hot'.

Wireless Lab, som firmaet bag FaceApp hed, skød også hurtigt skylden på den data, som blev brugt til at træne FaceApps algoritme.

»Det er en uheldig bivirkning ved det underliggende neurale netværk forårsaget af træningssættets bias,« udtalte CEO'en for Wireless Lab til Motherboard.

Den indbyggede bias trækkes med

Og netop brugen af dataene kan ende med at slå udvikleren i hovedet, pointerer The Outline.

Hvis man henter data fra offentligt tilgængelige kilder, kan man ende med at trække den bagvedliggende bias med ind i sit produkt. I artiklen refereres der til en nyligt udgivet Science-rapport, hvori man havde trænet en algoritme ud fra data fra Common Crawl, et dataset bestående af fem milliarder hjemmesider.

Her kom det frem, at algoritmen associerede afro-amerikanske navne med negative koncepter, mens europæiske navne blev sammenkædet med positive koncepter. Kvinder blev synonym med familie, mens mænd og karriere hørte sammen.

Juridiske fælder

Og der er flere aspekter af den lidet forudsete problemstilling. På Tech City News påpeger man, at der er en juridisk risiko forbundet ved at lade AI's køre helt autonomt.

For eksempel - som det også påpeges i den føromtalte rapport - er en stor risiko, at AI's automatiserede beslutninger medfører, at en bestemt gruppe får en anderledes behandling end andre baseret på eksempelvis køn eller race.

I Storbritannien vil dette blive anset for direkte diskrimination, og skulle en person vælge at lægge sag an, kan firmaet bag AI'en komme i knibe.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (1)
Log ind eller Opret konto for at kommentere
Pressemeddelelser

Welcome to the Cloud Integration Enablement Day (Bring your own laptop)

On this track, we will give you the chance to become a "Cloud First" data integration specialist.
15. nov 10:31

Silicom i Søborg har fået stærk vind i sejlene…

Silicom Denmark arbejder med cutting-edge teknologier og er helt fremme hvad angår FPGA teknologien, som har eksisteret i over 20 år.
22. sep 2017

Conference: How AI and Machine Learning can accelerate your business growth

Can Artificial Intelligence (AI) and Machine Learning bring actual value to your business? Will it supercharge growth? How do other businesses leverage AI and Machine Learning?
13. sep 2017