AI-forudsigelser om enkelte mennesker er no go
Spørg dig selv: Hvis du blev arbejdsløs, ville du så gerne have en algoritme til at forudsige din risiko for langtidsarbejdsløshed?
Den danske offentlige sektor har længe troet på, at machine learning og kunstig intelligens kan bruges til at spare velfærdssamfundet for penge ved at forudsige noget om individuelle danskere. Hvor stor er risikoen for, at den og den person ender som langtidsledig? Korttidsledig? Eller hvad med nogle skræddersyede anbefalinger til beskæftigelsesindsatser? Nu er STAR, ASTA og OMAS algoritmerne lagt i graven, som Version2 har rapporteret primært af to årsager; de virker ikke, og de er sandsynligvis ulovlige.
Havde den offentlige indsats været ægte dataetisk fra starten, var man aldrig gået ind i de tre projekter. Et centralt dataetisk princip er nemlig altid at undersøge om en tiltænkt databaseret service er til gavn for mennesket? Det er okay at tjene eller spare penge på en given databaseret service, men kun under forudsætning, at mennesket er sat i centrum, og at servicen først og fremmest er til fordel for mennesket. Det duer altså ikke blot at konstatere, at når det er til fordel for velfærdssamfundet, er det også til fordel for borgeren, og så er det dataetisk. Nej det skal være til fordel for det enkelte menneske.
Jeg har på utallige foredrag spurgt danskere rundt i landet, om de ville have en algoritmisk forudsigelse på deres risiko for langtidsledighed, såfremt de blev arbejdsløse. Gæt hvad svaret er for langt hovedparten. Et rungende nej. Langt de fleste mennesker ønsker ikke at blive proppet ned i en kategori og risikere at skulle kæmpe for at komme ud af den igen - inklusive komme ud af deres egen og sagsbehandlerens tro på, at algoritmen måske har ret. Det minder lidt om at få en forudsigelse fra en spåkone, hvor profetien bliver selvopfyldende. De fleste vil da hellere kæmpe og tro på, at de kan få et job igen hurtigt.
Selv hvis den offentlige beskæftigelsesindsats havde helt særlige værktøjer til dem i højrisiko for langtidsledighed, ville man som arbejdsløs da forvente at få adgang til disse værktøjer, hvad enten man er i risiko eller ej for langtidsledighed.
Man må spørge sig selv, hvad der har fået offentligt ansatte til at tro på, at STAR, ASTA og OMAS faktisk kunne gøre en forskel. Kan det måske skyldes en urokkelig tro på, hvad de kommercielle sælgere af disse algoritmer har lovet? Er det medierne, der har skruet forventninger til machine learning og kunstig intelligens så højt op, at mange tror det er et vidundermiddel? Er det uvidenhed? Eller er det bare, at man har glemt at spørge borgerne først?
Ja tak til nogle forudsigelser
Der er mange områder, hvor man kan bruge machine learning til at fremme ens profit eller spare udgifter. Som professor Thomas Hildebrandt foreslår i Version2, kunne det være at finde mønstre i og forudsige spidsbelastningstidspunkter i beskæftigelsesindsatsen. Det kan være sortering af mails, som andre offentlige AI-projekter har haft succes med, det kan være forudsigelser af produkters levetid, eller af, hvor der er størst risiko for uro en lørdag aften, så politiet kan være massivt til stede. Optimering i forhold til mønstre baseret på aggregerede og anonymiserede data er okay så længe den rammer nogenlunde rigtigt.
Når det gælder forudsigelser om individer skal man - hvad enten man er offentlig eller privat - som hovedregel holde nallerne væk. Forudsigelser om individer bør kun finde sted, når det er noget, individet selv ønsker. Når vi taler sundhed er der nogle områder, som flere nok gerne vil have forudsigelser om f.eks. sjældne sygdomme eller sygdomme, som vi kan gøre noget ved. Mange mennesker ønsker den viden, hvis der vel at mærke er noget at gøre ved det, f.eks. leve sundere.
Måske nogle individer også ønsker forudsigelser, der kan advare dem, om at de har en uhensigtsmæssig adfærd, som kan ende med, at de udvikler stress. Det er der flere teknologivirksomheder, som mener at kunne tilbyde. F.eks. har Microsofts medarbejderovervågningssystem Viva elementer af den slags, men hvis vi som samfund skal acceptere det, bør det være under én forudsætning. At ingen andre, hverken stat, virksomhed eller chefer, sidder på de data og den viden. Det er kun det enkelte menneske selv, der skal have den viden, og så selv kunne bestemme, om den viden skal deles med andre.

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.