Dette indlæg er alene udtryk for skribentens egen holdning.

AI-forudsigelser om enkelte mennesker er no go

8. februar kl. 10:2212
Pernille Tranberg
Illustration: Empathy.
Artiklen er ældre end 30 dage

Spørg dig selv: Hvis du blev arbejdsløs, ville du så gerne have en algoritme til at forudsige din risiko for langtidsarbejdsløshed?

Den danske offentlige sektor har længe troet på, at machine learning og kunstig intelligens kan bruges til at spare velfærdssamfundet for penge ved at forudsige noget om individuelle danskere. Hvor stor er risikoen for, at den og den person ender som langtidsledig? Korttidsledig? Eller hvad med nogle skræddersyede anbefalinger til beskæftigelsesindsatser? Nu er STAR, ASTA og OMAS algoritmerne lagt i graven, som Version2 har rapporteret primært af to årsager; de virker ikke, og de er sandsynligvis ulovlige.

Havde den offentlige indsats været ægte dataetisk fra starten, var man aldrig gået ind i de tre projekter. Et centralt dataetisk princip er nemlig altid at undersøge om en tiltænkt databaseret service er til gavn for mennesket? Det er okay at tjene eller spare penge på en given databaseret service, men kun under forudsætning, at mennesket er sat i centrum, og at servicen først og fremmest er til fordel for mennesket. Det duer altså ikke blot at konstatere, at når det er til fordel for velfærdssamfundet, er det også til fordel for borgeren, og så er det dataetisk. Nej det skal være til fordel for det enkelte menneske.

Jeg har på utallige foredrag spurgt danskere rundt i landet, om de ville have en algoritmisk forudsigelse på deres risiko for langtidsledighed, såfremt de blev arbejdsløse. Gæt hvad svaret er for langt hovedparten. Et rungende nej. Langt de fleste mennesker ønsker ikke at blive proppet ned i en kategori og risikere at skulle kæmpe for at komme ud af den igen - inklusive komme ud af deres egen og sagsbehandlerens tro på, at algoritmen måske har ret. Det minder lidt om at få en forudsigelse fra en spåkone, hvor profetien bliver selvopfyldende. De fleste vil da hellere kæmpe og tro på, at de kan få et job igen hurtigt. 

Artiklen fortsætter efter annoncen

Selv hvis den offentlige beskæftigelsesindsats havde helt særlige værktøjer til dem i højrisiko for langtidsledighed, ville man som arbejdsløs da forvente at få adgang til disse værktøjer, hvad enten man er i risiko eller ej for langtidsledighed.

Man må spørge sig selv, hvad der har fået offentligt ansatte til at tro på, at STAR, ASTA og OMAS faktisk kunne gøre en forskel. Kan det måske skyldes en urokkelig tro på, hvad de kommercielle sælgere af disse algoritmer har lovet? Er det medierne, der har skruet forventninger til machine learning og kunstig intelligens så højt op, at mange tror det er et vidundermiddel? Er det uvidenhed? Eller er det bare, at man har glemt at spørge borgerne først?

Ja tak til nogle forudsigelser

Der er mange områder, hvor man kan bruge machine learning til at fremme ens profit eller spare udgifter. Som professor Thomas Hildebrandt foreslår i Version2, kunne det være at finde mønstre i og forudsige spidsbelastningstidspunkter i beskæftigelsesindsatsen. Det kan være sortering af mails, som andre offentlige AI-projekter har haft succes med, det kan være forudsigelser af produkters levetid, eller af, hvor der er størst risiko for uro en lørdag aften, så politiet kan være massivt til stede. Optimering i forhold til mønstre baseret på aggregerede og anonymiserede data er okay så længe den rammer nogenlunde rigtigt. 

Når det gælder forudsigelser om individer skal man - hvad enten man er offentlig eller privat - som hovedregel holde nallerne væk. Forudsigelser om individer bør kun finde sted, når det er noget, individet selv ønsker. Når vi taler sundhed er der nogle områder, som flere nok gerne vil have forudsigelser om f.eks. sjældne sygdomme eller sygdomme, som vi kan gøre noget ved.  Mange mennesker ønsker den viden, hvis der vel at mærke er noget at gøre ved det, f.eks. leve sundere. 

Måske nogle individer også ønsker forudsigelser, der kan advare dem, om at de har en uhensigtsmæssig adfærd, som kan ende med, at de udvikler stress. Det er der flere teknologivirksomheder, som mener at kunne tilbyde. F.eks. har Microsofts medarbejderovervågningssystem Viva elementer af den slags, men hvis vi som samfund skal acceptere det, bør det være under én forudsætning. At ingen andre, hverken stat, virksomhed eller chefer, sidder på de data og den viden. Det er kun det enkelte menneske selv, der skal have den viden, og så selv kunne bestemme, om den viden skal deles med andre.

Vil du bidrage til debatten med et synspunkt? Så skriv til vores PRO debatredaktion på pro-sekretariat@ing.dk

12 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
11
11. februar kl. 09:21

Spændende. Jeg tænker at det er ok at eksperimentere. Men når man nu nogle gange har forsøgt og det ikke rigtigt virker som om det fungerer er det måske på tide med en grundig evaluering inden man poster flere penge ind i profilering. Måske det er fordi sagsbehandlerne ikke kan forstå modellerne? Måske fordi det er black box modeller som forskerne heller ikke altid helt forstår (de forklarende variabler til)? Og så kan det måske være svært at se hvad man skal bruge en risiko på fx 64% for langtidsledighed til som borger uden de forklarende variable. Det betyder ikke at man ikke skal bruge modeller - måske er profileringsmodeller bare nogle man skal bruge med stor varsomhed fx så de udvisker bias i stedet for at forstærke den?

5
9. februar kl. 11:42

Jeg har på utallige foredrag spurgt danskere rundt i landet, om de ville have en algoritmisk forudsigelse på deres risiko for langtidsledighed, såfremt de blev arbejdsløse.

Dejligt spørgsmål, som alle formodentlig svarer nej til. (Pånær akademisk interesse)

Men spurgte du også, om man ønskede et ledighedsforløb, som var personaliseret, eller om alle borgere mekanisk skal gennem samme identiske mølle uden hensyn?

Og så snart et forløb bliver en funktion af en persons data, hvad sker der så?

Hvordan går man til dilemmaet, at en differentiering af forløb enten er (1)tilfældigt, (2)algoritmisk determineret eller (3)baseret på en personlig fingerspitzgefühl hos sagsbehandleren?

6
10. februar kl. 07:34

hej Martin. nej det gjorde jeg ikke, for det er ikke lykkes mig at få svar på om den off beskæftigelsesindsats har nogle helt særlig virkemidler/værktøjer overfor den gruppe der er truet mest af langtidsledighed. ved du om de har det? og så er mit spørgsmål nemlig; hvis jeg blev arbejdsløs og havde brug for hjælp vil jeg da gerne have at alle værktøjer er tilgængelige for mig - om jeg er truet af langtidsledighed eller ej. hvis man havde så mange værktøjer at det er svært for de mennesker der er ansat at hitte rede i hvad der virker bedst for dig og mig, så ja så kunne det måske give mening med en personalisering. nu virkede det ikke, nok fordi der ikke er nok data, men hvis jeg skal have noget personaliseret, så er det mig der bestemmer om jeg vil have det og jeg vil også kontrollere mine egne data - begge dele ligger i dag hos det offentlige.

9
10. februar kl. 11:57

hvis jeg blev arbejdsløs og havde brug for hjælp vil jeg da gerne have at alle værktøjer er tilgængelige for mig - om jeg er truet af langtidsledighed eller ej.

Sådan fungerer velfærdsstaten ikke.

Du kan f.eks. ikke bare selv vælge at kræve et hjælpemiddel fra kommunen, lad os sige en el-scooter, fordi du synes du har det behov.

så er det mig der bestemmer om jeg vil have det

Det forstår jeg godt, at du godt kunne tænke dig. Men du har ikke tænkt dit krav til ende. Og selvfølgelig kan din model ikke fungere i praksis pga. misbrug fra borgeres side. Konsekvensen ville være at alle bare kunne påberåbesig flex-job eller førtidspension, hvis de selv lige synes.

Du bliver nød til at etablere en kritisk model, som også indeholder at myndigheden tilpasser et forløb baseret på de tre dilemmatiske elementer jeg nævnte.

10
10. februar kl. 13:11

Martin: Du blander politiske holdninger sammen med spørgsmålet om brug af AI, hvilket netop er uetisk.

Man kan ikke sammenligne et ønske om et hjælpemiddel, med at blive målt i en kunstig datamodel baseret på et tilfældigt sammenrod af modeller og data fra andre mennesker.

4
9. februar kl. 08:57

Jeg fjernede "data" fra et af afsnittene så det nu lyder:

"Havde den offentlige indsats været ægte etisk fra starten, var man aldrig gået ind i de tre projekter. Et centralt etisk princip er nemlig altid at undersøge om en tiltænkt service er til gavn for mennesket? Det er okay at tjene eller spare penge på en given service, men kun under forudsætning, at mennesket er sat i centrum, og at servicen først og fremmest er til fordel for mennesket."

Jeg tror det dybere problem er, at sålænge dette ikke opfattes som værende overholdt vil det heller ikke overholdes bare fordi man kommer "data" foran.

7
10. februar kl. 07:40

du har ret. men nu er dataetik noget mange claimer at de gør ;-)

3
8. februar kl. 20:53

"Er det medierne, der har skruet forventninger til machine learning og kunstig intelligens så højt op, at mange tror det er et vidundermiddel? Er det uvidenhed? Eller er det bare, at man har glemt at spørge borgerne først?"

Nej, man ikke "glemt" at spørge borgerne. Man vil ikke spørge borgerne.

Det er derfor at vi ser lovsjusk, som nummerpladeskandalen, ejendomsvurderingerne etc. Embedsværket er åbenlyst ligeglad med hvad borgerne måtte mene. Og så længe danskerne bliver ved at stemme på repræsentanter (politikere), der tillader den opførsel, så sker der ikke noget.

1
8. februar kl. 14:01

Om det er AI eller et menneske er fuldstændig ligegyldigt det er jo bare spørgsmålet om at få den bedste vurdering. Hvis AI'en er bedre, så er det vel uetisk ikke at bruge den.

12
11. februar kl. 21:34

Om det er AI eller et menneske er fuldstændig ligegyldigt det er jo bare spørgsmålet om at få den bedste vurdering. Hvis AI'en er bedre, så er det vel uetisk ikke at bruge den.

  • Man må spørge sig selv, hvad der har fået offentligt ansatte til at tro på, at STAR, ASTA og OMAS faktisk kunne gøre en forskel. Kan det måske skyldes en urokkelig tro på, hvad de kommercielle sælgere af disse algoritmer har lovet?

"Du er gift, og har 2 børn" siger sagsbehandler. "Vrøvl, har aldrig været gift, steril og desværre barnløs" siger den tilsagte borger. "Ja, men det står her på skærmen!" siger sagsbehandler. Netop derfor er AI "drømmen" til en sagsbehandling.. maskinen kan få skylden, på samme vis som konsulenter får skylden i andre situationer (Samt politisk ses besparelser: mindre og mindre kompetente ansatte kan hyres som maskinpasser).

Efter at regioner samt storkommunerne etableres 2007. Hovedparten af ansatte kender ikke de personer, som de har som deres opgave at betjene. Så forberedelsen er, at de gætter via lidt tilfældige opslag hist og pist.

Mængden af fejl, vrøvl, misforståelse samt en voldsom modvilje til at rette åbenlyse fejl, betyder at AI på babystadiet åbner endnu en kilde med helt nye typer fejl - det er tåbeligt.

8
10. februar kl. 07:42

ja, hvis du ønsker at få en forudsigelse om din risiko for langtidsledighed, så ka vi tale om det. ønsker du det? og ja, så skal den sefølig virke - det gjorde den jo ikke

2
8. februar kl. 15:15

Der drejer sig om forudsigelser om mennesker, og derfor kan man ikke bruge anvende udtrykket "bedste" på AI. Det er gætværk baseret på algoritmer og data, som modellen tilfældigvis er fordret med, og netop derfor skal det ikke anvendes til at bestemme menneskers skæbne.

Det er slemt nok, at vi som jobansøgere (fra)sorteres fra på basis alder, køn og navn. Hvis det bredder sig til tilfældige mønstrer for hvad andre mennesker måtte have gjort eller ikke gjort, så for vi alvor en et klassesamfund, hvor nogen får alle muligheder i livet og andre ingen muligheder for i livet.