Når AI går galt: Sorte mennesker bliver hvide, og Twitter hylder Hitler

diskrimination mennesker
Hvis ikke man er påpasselig med sin brug af databaser, kan en AI ende med at tage de bias med, som findes på nettet.

Da Microsoft fremviste Twitter-chatbotten Tay i maj 2016, startede det ganske uskyldigt.

»Can I just say that I'm stoked to meet u? Humans are super cool,« var det første tweet, som kom fra botten.

Konceptet var på papiret ganske smart - jo mere der blev tweetet med chatbotten, des klogere blev den.

Den mulighed udnyttede adskillige Twitter-brugere til at forpurre den ellers så uskyldigt udseende bot, og med det sidste tweet: »Hitler was right. I hate the Jews,« valgte Microsoft at lukke chatbotten ned efter blot 24 timer.

Sidenhen er flere historier dukket op om AI's, som uhensigtsmæssigt opfører sig racistisk, misogynt eller på anden måde diskriminerende. I det ovenstående tilfælde agerede chatbotten på baggrund af den data, som andre brugere gav den gennem tweets.

Filter gjorde folk hvide

Men også når man tilgår større datamængder, kan det ende galt. Dette skete blandt andet for FaceApp - en fotofilter-app, som tilbød brugerne muligheden for at lægge et 'hot' filter på dem selv. Filteret gjorde dem hvide, hvilket naturligvis blev mødt med meget kritik.

Denne app var baseret på store mængder datasæt, hvorfra AI'en 'besluttede', hvad der var 'hot'.

Wireless Lab, som firmaet bag FaceApp hed, skød også hurtigt skylden på den data, som blev brugt til at træne FaceApps algoritme.

»Det er en uheldig bivirkning ved det underliggende neurale netværk forårsaget af træningssættets bias,« udtalte CEO'en for Wireless Lab til Motherboard.

Den indbyggede bias trækkes med

Og netop brugen af dataene kan ende med at slå udvikleren i hovedet, pointerer The Outline.

Hvis man henter data fra offentligt tilgængelige kilder, kan man ende med at trække den bagvedliggende bias med ind i sit produkt. I artiklen refereres der til en nyligt udgivet Science-rapport, hvori man havde trænet en algoritme ud fra data fra Common Crawl, et dataset bestående af fem milliarder hjemmesider.

Her kom det frem, at algoritmen associerede afro-amerikanske navne med negative koncepter, mens europæiske navne blev sammenkædet med positive koncepter. Kvinder blev synonym med familie, mens mænd og karriere hørte sammen.

Juridiske fælder

Og der er flere aspekter af den lidet forudsete problemstilling. På Tech City News påpeger man, at der er en juridisk risiko forbundet ved at lade AI's køre helt autonomt.

For eksempel - som det også påpeges i den føromtalte rapport - er en stor risiko, at AI's automatiserede beslutninger medfører, at en bestemt gruppe får en anderledes behandling end andre baseret på eksempelvis køn eller race.

I Storbritannien vil dette blive anset for direkte diskrimination, og skulle en person vælge at lægge sag an, kan firmaet bag AI'en komme i knibe.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk

Følg forløbet

Kommentarer (1)

Kommentarer (1)
Gert G. Larsen

Hvis hovedparten af interweb siger at hvide er lig med hot, så er det da helt klart og naturligt, at AI'en lærer dette? Så må nogen kode en politisk korrekt glasur oven på AI'en, så den kan sige noget andet end det den mener, ligesom mennesker.

Log ind eller opret en konto for at skrive kommentarer

Pressemeddelelser

Silicom i Søborg har fået stærk vind i sejlene…

Silicom Denmark arbejder med cutting-edge teknologier og er helt fremme hvad angår FPGA teknologien, som har eksisteret i over 20 år.
22. sep 10:29

Conference: How AI and Machine Learning can accelerate your business growth

Can Artificial Intelligence (AI) and Machine Learning bring actual value to your business? Will it supercharge growth? How do other businesses leverage AI and Machine Learning?
13. sep 2017

Affecto has the solution and the tools you need

According to GDPR, you are required to be in control of all of your personally identifiable and sensitive data. There are only a few software tools on the market to support this requirement today.
13. sep 2017