Samfundet er i hænderne på algoritmer, men kode-etikken er helt til rotterne

Der er brug for etik og gennemsigtighed i de algoritmer, der styrer alt fra prøveløsladelser til samfundsdebatten, lyder det fra førende it-udviklere.

Der var en ny fornemmelse i luften, da en af verdens førende teknologikongresser, Websummit, i år blev afholdt i Lissabon.

En eftertænksomhed blandede sig pludselig med den teknologibegejstring, der ellers har præget tidligere års kongresser.

Førende teknologer talte om behovet for etikere, filosoffer eller en slags Genèvekonvention for udviklere af de mange algoritmer, der i stigende grad styrer vores samfund.

Algoritmerne bliver nemlig brugt i mange grene af samfundet, fra styring af nyhedsvisninger og debat på sociale medier til vurdering af prøveløsladelser og styring af temperaturer i kontorbygninger.

Og algoritmer er ikke neutrale og objektive, lød det både på Websummit og på udviklerkonferencen Øredev i Malmø for nylig.

»Vi har en tendens til at tænke på data som kolde kendsgerninger. Men der er mennesker indblandet, og deres bias kan krybe med ind i algoritmerne,« fortalte den amerikanske softwareudvikler Liz Rush.

Algoritmerne er grundlæggende ligeglade med din hudfarve, dit køn, din vægt eller din politiske overbevisning.

Men de skabes af mennesker med forudindtagethed eller bias, og selv når vi lader computeren skabe en algoritme ved hjælp af maskinlæring, kan menneskets bias snige sig ind – for maskinlæring kræver oplæring på et datasæt, og det datasæt er i sidste ende udvalgt af et menneske.

»Vi plejer at sige, at teknologi er neutralt, men at det er op til os at bruge det til et formål. Men vi glemmer, at der bag store firmaer som Facebook og Twitter er hundred- eller tusindvis af mennesker på den anden side af skærmen, hvis job hver dag er at finde på nye måder, du skal bruge deres produkt på,« sagde Tristan Harris på Websummit.

Han er leder af nonprofit-bevægelsen Time Well Spent, hvis formål er at ‘bringe teknologien i overensstemmelse med vores menneskelighed’, og var frem til 2016 designetiker og produktfilosof hos Google.

Algoritmer fylder os med løgn

Et eksempel, der illustrerer problemet, er den formel, som ingeniører helt tilbage i 1960’erne skabte for den optimale temperatur i en kontorbygning.

Formlen skulle sikre, at virksomheder ikke brugte mere energi end nødvendigt til opvarmning og køling.

Men formlen byggede på en snæver række antagelser om stofskiftets indflydelse på, hvilken temperatur der føles komfortabel.

I praksis blev der blot målt på en enkelt normalvægtig 40-årig mand og ekstrapoleret derfra.

En række undersøgelser har efterfølgende vist, at antagelserne var forkerte, hvilket betød, at kvinder og ældre medarbejdere sad og frøs på kontorerne, mens der blev spildt penge og ressourcer på unødvendig airconditioning.

Alt sammen fordi ingeniørerne bag algoritmen tog udgangspunkt i et begrænset datasæt, der resulterede i en betydelig bias.

Eksemplet kan virke uskyldigt, men når andre algoritmer begår lignende fejl, så bliver f.eks. de forkerte fanger prøveløsladt.

I 2015 kom det frem, at der i årevis havde været fejl i den algoritme, der besluttede, om fanger i flere amerikanske delstater måtte gå fri.

Google skabte en algoritme til automatisk kategorisering af fotos, men algoritmen var oplært på basis af kun få billeder af sorte mennesker, og derfor lærte algoritmen ikke at genkende sorte som mennesker.

Andre eksempler inkluderer Googles billedgenkendelsesalgoritme, der kategoriserede mørke kvinder som gorillaer, fordi den var oplært på datasæt, der fortrinsvis indeholdt fotos af hvide mennesker – eller med andre ord for få billeder af sorte til at oplære algoritmen pålideligt.

Minoriteter er således udsatte i algoritmeøkonomien. De udgør en lille del af det samlede datasæt, og derfor vil algoritmerne hælde mod flertallet.

»Hvis din algoritme rammer forkert 15 ud af 100 gange, så kan du ikke vide, om det er 15 gange ud af et tilfældigt udtræk, eller om de 15 er en minoritet, som vil opleve, at algoritmen rammer ved siden af hver gang,« siger Liz Rush.

Endnu et eksempel er Googles nyhedsalgoritme, der kan komme til at prioritere artikler fyldt med løgn i toppen af deres nyhedsside.

Det skete senest kort efter det amerikanske præsidentvalg, hvor Google News’ tophistorie var fra et site ved navn 70News.com, der helt forkert påstod, at Trump havde vundet størstedelen af stemmerne.

Googles prioritering af historien fik løgnen til at sprede sig, men nu har Google taget konsekvensen og meldt ud, at de vil forhindre Google-drevne reklamer på sites, der ‘fordrejer, fejlciterer eller skjuler information.’

Algoritme gav Trump en fordel

Valget i USA har også skabt selvransagelse hos Facebook. Det sociale medie har nemlig mødt massiv kritik, blandt andet på Websummit, for at ignorere deres ansvar for nyhedsvisninger og dermed samfundsdebatten.

En interessant kritiker var Joe Green, der byggede forløberen til Facebook, Facemash, sammen med Facebook-stifteren Mark Zuckerberg.

Facebooks algoritme beskyldes for at fastholde brugerne i selvforstærkende 'bobler', hvor brugerne mest får vist indhold, der deles af dem, de er enige med.

Ifølge Joe Green skaber Facebooks algoritmer ‘ekkokamre’, hvor vi kun bekræfter hinandens synspunkter, og ligesom andre på Websummit mener han, at det bidrager til den opsplitning, vi ser i USA.

»Der er ikke lagt op til en debat, hvor du får empati eller skaber gensidig forståelse for andres synspunkter. Debatten er kort. Frem og tilbage. Og man bør stille spørgsmålet, hvordan vi kan bruge teknologien til at fremme forståelse for hinanden i stedet for opdeling,« siger Joe Green, der i dag står bag den populære Facebook-app Causes, der prøver at engagere folk politisk.

Læs også: Tidligere fængslet Iran-aktivist: Facebook ødelægger den åbne meningsudveksling på nettet

Lignende synspunkter kom fra Tristan Harris fra Time Well Spent. Ifølge ham var Trumps valgkamp det perfekte eksempel på, at algoritmerne bag sociale medier har fejlet.

»Trump er som en kunstig intelligens, der gør alt for at få opmærksomhed. Der findes intet internt kompas eller noget rigtigt eller forkert. Det handler bare om at sige hvad som helst for at få opmærksomhed. Få klik. Få delinger. Og det virker, fordi det udnytter Facebooks måde at dele informationer på,« siger han.

Kritikken er dog ikke prellet helt af på Mark Zuckerberg, der for nylig meddelte, at han vil udelukke nyhedsmedier fra at bruge Facebook, hvis de er ‘misvisende, illegale eller vildledende’.

Nu venter kritikerne blot på Twitter. Firmaet har nemlig mødt kritik for at være uigennemsigtigt og muligvis partiske, hvad angår, hvem de lukker ned, og hvem de giver opmærksomhed.

Software diskriminerer

Algoritmer står også højt på dagsordenen hos ledere i erhvervslivet og den offentlige sektor.

Analysefirmaet Gartner taler om ‘algoritmeøkonomien’, fordi algoritmerne er det værktøj, der forvandler data til handling, og det er deri, den sande værdi af data ligger, som Gartners analysechef, Peter Søndergaard, udtrykte det tidligere i år.

Dataetik og algoritmedesign står lige nu i en situation, hvor feltet er nyt, og regulering på området i første omgang er op til virksomhederne, fordi lovgivning tager tid. Ligesom der har været eksempler på datalæk af persondata, så kan det næste problem blive de diskriminerende algoritmer.

Hvis man er mand og søger på Google, så er der større sandsynlighed for at få vist en jobannonce for et højtlønnet lederjob, end hvis man er kvinde - på trods af enslydende profiler.

Da forskere fra Carnegie-Mellon University og International Computer Science Institute i 2015 så nærmere på, hvordan Googles reklamer blev målrettet forskellige grupper, opdagede de, at når Googles reklamemålretningsalgoritme troede, at internetbrugeren var en mand, blev der vist jobannoncer for højt betalte lederstillinger.

En ellers tilsvarende, men kvindelig, profil fik ikke i samme omfang vist disse annoncer.

»Jeg mener, vores resultat indikerer, at der er dele af reklamesystemet, hvor der begynder at opstå former for diskrimination, og der er ingen gennemsigtighed. Det er bekymrende set fra et samfundsmæssigt perspektiv,« siger lektor Anupam Datta fra Carnegie-Mellon University til MIT Technology Review.

Behov for åbenhed om afgørelser

Set fra algoritmedesignernes side af skærmen handler mange af problemerne reelt om at at implementere algoritmerne på en måde, der tager højde for, at algoritmen kan tage fejl.

Mange maskinlæringsalgoritmer giver faktisk et resultat med en tilknyttet sandsynlighed – men hvis denne sandsynlighed ikke fremgår af den videre proces, så kan brugeren ikke se, om algoritmen er 99 procent eller 50 procent sikker.

En algoritme med en indbygget bias kan eksempelvis være et problem, hvis den bruges til at sortere jobansøgere, og én eller flere minoriteter sorteres fra på grund af algoritmens bias. Derfor er der behov for åbenhed om algoritmerne for alle parter.

»I sidste ende bliver der formentlig tale om en afvejning mellem, hvor gennemskuelig og hvor smart software er til at træffe beslutninger. Her er der brug for teknologi og lovgivning, der sikrer tilstrækkelig fairness og gennemsigtighed uden at tabe for mange af de muligheder, der ligger i datadrevne beslutninger,« siger professor Rasmus Pagh fra IT-Universitetet i København.

For ligesom ingeniørerne i 1960’erne gjorde sig forkerte antagelser om kvinders stofskifte og dermed den ideelle kontortemperatur, så kan tilsvarende fejl få alvorlige konsekvenser, når algoritmer bygges ind i for eksempel pacemakere eller bruges til at sortere i vores daglige nyhedsstrøm.

Især hvis vi ikke kan se, hvad algoritmen gør.

Denne artikel stammer fra den trykte udgave af Ingeniøren, fredag.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (3)
Anne-Marie Krogsbøll

Ja, det er en vigtig artikel, tak for den.

Information har i dag et særtillæg på 40 sider om netop kunstig intelligens - en del af artiklerne er desværre abonnementsbelagte. Citat af Karen Levy fra en artikel:
»I stedet for at acceptere at et firma som Facebook, som ved mere om vores private liv end nogen anden enhed, der nogensinde har eksisteret, bare er ’tech’, så skal vi snarere tale om den som en infomationshandler, som en aktør i regeringens overvågning, som en publicist, som en producent af droner eller enhver anden specifik beskrivelse, der sætter deres handlinger i den rette kontekst,« "

Udviklingen går så hurtigt lige nu, at vi vist allerede er ved at blive hægtet af. Jeg kommer - desværre - til at tænke på Dürrenmats novelle "Tunnelen"
https://en.wikipedia.org/wiki/The_Tunnel_%28short_story%29

Henning Hansen

Går det galt med retssikkerheden.
I det offentlige er det systemerne, som har ret. Jeg har oplevet det i jobcenteret : "Jamen, systemet siget altså... og så kan jeg ikke"
Et andet eksempel er fejludbetalinger af kontanthjælp, hvor kommunen ikke har lov til at udbetale det, som de kan se, borgeren har ret til, hvis en fejl i "systemet" giver et andet resultat. (Udtalt af en borgmester)
Altså har man pålæg om at sætte systemet over retsikkerheden!
Hvor kommer det fra ... et eller andet sted i nærheden af Moderniseringsstyrelsen???

Log ind eller Opret konto for at kommentere
Pressemeddelelser

Silicom i Søborg har fået stærk vind i sejlene…

Silicom Denmark arbejder med cutting-edge teknologier og er helt fremme hvad angår FPGA teknologien, som har eksisteret i over 20 år.
22. sep 2017

Conference: How AI and Machine Learning can accelerate your business growth

Can Artificial Intelligence (AI) and Machine Learning bring actual value to your business? Will it supercharge growth? How do other businesses leverage AI and Machine Learning?
13. sep 2017

Affecto has the solution and the tools you need

According to GDPR, you are required to be in control of all of your personally identifiable and sensitive data. There are only a few software tools on the market to support this requirement today.
13. sep 2017