Fairness i algoritmer? Det problem kan ikke løses matematisk

28. januar 2019 kl. 05:13
Fairness i algoritmer? Det problem kan ikke løses matematisk
Illustration: Bigstock.
Forskere har leveret flere forsøg på at indbygge fairness i algoritmer. Men metoderne er ikke kompatible med hinanden, og i sidste ende kan problemet ikke løses af matematik alene, fastslår forskere.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Denne artikel blev oprindeligt bragt på DataTech.

Fairness er en af de store brikker, der skal placeres, hvis det dataetiske puslespil skal falde på plads. Men at indbygge fairness i algoritmer er ikke simpelt i praksis.

Udfordringen er på få år gået fra at være et nicheforskningsområde inden for machine learning, til i 2018 alene at få to dedikerede konferencer og en eksplosion i antallet af forskningsartikler om emnet - en udvikling, der ikke mindst er drevet af de efterhånden talrige eksempler på diskriminerende algoritmer.

»Vi ser nu downstream-effekten af vores arbejde,« bemærkede Manojit Nandi, Senior Data Scientist hos Rockettrip, da han adresserede emnet på konferencen PyData i slutningen af sidste år.

Artiklen fortsætter efter annoncen

»Som data scientist er du måske ikke den, der umiddelbart gør skade på disse mennesker, men disse mennesker bliver skadet på grund af dit arbejde. Der er ingen, der har lyst til at være den person, selvom du ikke tænker på dig selv som etiker,« fastslog han.

Der er adskillige forsøg på at tackle problemet med fairness matematisk. Men den strategi er utilstrækkelig, lød budskabet fra Nandi.

Da forskere ved Stanford i et stærkt kritiseret studie påstod, at man med en algoritme kan afgøre, om en person er homoseksuel, kunne ingen matematiske formler have vist, at hele projektet var en dårlig ide, siger Menojit Nandi.

»Som data scientists skal vi være rustede med mere end algoritmer. VI har brug for etik og antropologi, når vi arbejder. Vi kan ikke løse det som et algoritmisk problem.«

Samme konklusion er andre kommet frem til. Da Cambridge-forsker Ben Green gennemgik den kontroversielle COMPAS-algoritme, der i USA bruges til at vurdere, om en fange skal tildeles prøveløsladelse, kom han blandt andet frem til, at udviklere bag denne type algoritmer »must abandon näıve notions of neutrality and recognize themselves as participating in normative and political constructions of society«.

Idet machine learning-feltet tager fat på nye domæner såsom retsvæsenet, skriver Green, kan man ikke længere tage for givet, at fairness »can be reduced to a single mathematical definition that exists in the abstract, away from social, political, and historical context«.

En af udfordringerne er, at fairness er et begreb, som ikke kan defineres endegyldigt. En gruppe forskere på Stanford University har inddelt de mange forskellige definitioner - og forsøg på at løse fairness-problemet algoritmisk - i tre kategorier. Overordnet er deres konklusion, at »these popular measures of fairness suffer from significant statistical limitations«.

Ingen kommentarer endnu.  Start debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger