Forskere udvikler test til at afsløre racistiske algoritmer

19. december 2016 kl. 15:303
En test skal afgøre om en algoritme lider af 'hvid mand'-bias.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Når algoritmer udvikles af en bestemt gruppe mennesker på baggrund af data, der hovedsageligt kommer fra den selv samme gruppe mennesker, så kan der opstå en skævvridning til fordel for den gruppe.

Det fænomen har blandt andet ledt til stemmegenkendelsessoftware trænet af mænd, der har problemer med at forstå kvinder. Det har også ført til en reklameplatform, der var mere tilbøjelig til at vise annoncer for højt betalte job til mænd.

Nu forsøger en gruppe forskere at komme det såkaldte 'hvid mands-problem' til livs med en test, der skal afsløre om en algoritme er diskriminerende i forhold til køn og race, skriver The Guardian.

»Beslutninger baseret på machine learning kan være utroligt anvendelige og have stor indflydelse på vores liv,« forklarer Moritz Hardt, seniorforsker hos Google, der har været leder af projektet.

Artiklen fortsætter efter annoncen

»Til trods for behovet, har vi manglet en form for testmetode inden for machine learning til at forhindre diskrimination på baggrund af følsomme attributter,« siger han.

Testen er rettet mod machine learning-værktøjer, der skal forsøge at lave forudsigelser på baggrund af store datamængder. Den indre logik i algoritmens afgørelser er ofte uigennemskuelig - selv for skaberne.

»Selv hvis vi har adgang til algoritmernes indre, er de så komplicerede, at det er nyttesløst at komme derind,« siger datalog ved University of Chicago Nathan Srebro, der er med i forskerholdet.

»Hele pointen med machine learning er at bygge magiske sorte kasser,« fortsætter han.

Artiklen fortsætter efter annoncen

Af samme grund ser forskernes test ikke på, hvordan algoritmer er opbygget - men på resultatet, de producerer. Testen går dybest set ud på, at algoritmens resultat ikke må afsløre noget om personens køn eller race, som ikke allerede kunne aflæses af dataen.

Hvis det fx var dobbelt så sandsynligt, at mænd kom bagud med at betale et lån tilbage, som at kvinder gjorde det, kunne en algoritme vælge, at mænd aldrig skulle godkendes til lån. Den ville i så fald altid afsløre kønnet på den person, der ansøger om lån.

»Det ville kunne opfattes som upassende diskriminering,« forklarer Srebro.

Tilgangen kalder forskerne Equality of Opportunity in Supervised Learning, og det er ifølge forskningsartiklen ikke målet at bevise, at algoritmen er fair, men snarere at spotte, om den er unfair.

3 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
3
25. januar 2017 kl. 11:55

Jo men hvis mænd faktuelt er dårligere tilbagebetalere er det vel i orden at være mere påpasselig ved långivning? Eller kræve højere rente? Blot som eksempel.

2
25. januar 2017 kl. 11:37

"When you’re accustomed to privilege, equality feels like oppression"

1
20. december 2016 kl. 11:30

Der er ikke et 'hvid mands-problem'. Der er et propaganda- og censurproblem. Begge har til formål at lægge den hvide mand for had.