Dette indlæg er alene udtryk for skribentens egen holdning.

Algoritmer skal udvikles sammen med praksis

Af Ditte Brøndum30. august kl. 05:104
Lisbeth Holten
Illustration: Lisbeth Holten.
Forestillingen om et tech eldorado, som kan gøre den offentlige sektor både billigere og mere effektiv, er en lavine, der de senere år har ramt det sociale område udefra. Men indtil videre har algoritmer og kunstig intelligens primært vist sig som en succes i det omfang, at man bruger det til at overtage rutineprægede opgaver.

Så snart vi bevæger os ind på områder, der handler om at forudsige, om børn vil have behov for en offentlig indsats, fordi de mistrives, eller om borgere er i risiko for langtidsledighed, så opstår der en stor risiko for at lave benspænd, der er mere til besvær end til gavn for borgerne og socialrådgiverne.

Data er utilstrækkelig

En af de grundlæggende udfordringer, når det handler om algoritmer på det sociale område, er, at graden af kompleksitet er ekstrem. Og der er så megen information, der ikke kan hentes i Danmarks Statistik. 

Og selv, når man kan hente en relevant statistik, så er der et hav af mennesker, der ikke passer ind i den. Bare fordi en vis procentdel vil reagere på en bestemt måde, så vil der altid være behov for, at vi i dialogen med borgeren ser potentialerne, der hvor statistikkerne ikke rækker. 

Der er for eksempel en udbredt forestilling om, at man kan forudse sociale problemer ud fra forældrenes situation. Det er da også korrekt, at risikoen for social udsathed stiger, hvis forældrene er udsatte. 

Artiklen fortsætter efter annoncen

Men det er også korrekt, at langt de fleste børn af udsatte forældre ikke kommer til at opleve udsathed. Morten Ejrnæs har foretaget undersøgelser, der viser, at 92 procent af børnene fra belastede hjem ikke selv får et af de alvorlige problemer, som fx stof- eller alkoholmisbrug, når de vokser op. 

Den samme undersøgelse viser, at 70 procent af de problemramte unge vokser op hos forældre uden problemer – så langt størstedelen af unge med problemer kommer altså fra ikke-belastede hjem. 

Derfor skal vi være meget påpasselige med, hvordan vi bruger data, og vi socialrådgivere må fortsat gøre brug af vores faglige fundament, vores erfaring og en tæt dialog med de mennesker, vi gerne vil gøre en forskel for.

Når data møder mennesker

Men selv med gode algoritmer, så skal man tage i betragtning, hvad viden om ens risikoprofil gør ved det enkelte menneske. En forudsigelse af langtidsledighed kan i værste fald forværre borgerens situation, fordi de får en besked om, at de med stor sandsynlighed vil blive langtidsledige, og det kan virke demotiverende og kan få dem til at opgive jobsøgningen. 

Fra andre studier ved vi også, at det har en positiv indflydelse på en borgers sandsynlighed for at komme i job, hvis socialrådgiveren har tiltro til borgerens evner – altså nærmest det modsatte af at blive præsenteret for en negativ score.

Et krav om inddragelse

Selv om jeg er skeptisk over for dele af den aktuelle udvikling, mener jeg ikke, at vi skal afskrive algoritmer. Men ledere og politikere skal have modet til at undersøge teknologierne i mindre skala, inden de rulles ud, og så skal de have modet til at droppe teknologi, hvis det viser sig at være en dårlig ide. 

Det så vi et positivt eksempel på, da Lyngby-Taarbæk Kommune for nyligt droppede det digitale redskab ASTA til at screene ledige. Det skete på baggrund af en undersøgelse, hvor kommunens egne sagsbehandlere var kritiske over for redskabet. 

De oplevede, at det ikke var hjælpsomt, og at algoritmerne ikke var gennemskuelige, så de kunne give borgerne en meningsfuld forklaring på algoritmens tal. 

Algoritmer må ikke blive en sovepude. 

Det må kun være et værktøj, der udvider vores tilgængelige viden i en given sag og give anledning til, at man som socialrådgiver tænker sig om en ekstra gang. 

Det er derfor afgørende, at vi som fagpersoner får kompetencer til at gennemskue algoritmer, forholde os kritisk til algoritmens tal og fremme de gode løsningsforslag. 

Det er også afgørende for borgerens retssikkerhed, at de kender de oplysninger, som deres sag bliver afgjort på baggrund af. Og det er afgørende, at borgernes behov og den socialfaglige indsats er i højsædet. 

Det bør derfor være et klart krav, at algoritmer bliver udviklet i dialog med fagpersoner og borgere, så de understøtter fagligheden og ikke ender med at underminere den. 

Vil du bidrage til debatten med et synspunkt? Så skriv til vores PRO debatredaktion på pro-sekretariat@ing.dk

4 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
3
31. august kl. 08:46

Tak fordi du tager det vigtige emne op, Ditte!

Jeg er 100% enig i det du skriver, hvilket også et konklusionen af den forskning og undersøgelser vi har lavet de sidste 10 år. Undersøgelsen fra Lyngby-Tårbæk som du henviser til kan iøvrigt findes her https://www.confrontingdata.dk/s/Er-du-grn-Algoritmer-til-beslutningssttte-Flugge-et-al-2022.pdf

Derudover har vi udgivet en række forskningsartikler om emnet - særligt som del af EcoKnow.org projektet. Måske mere håndgribeligt kan man også finde specifikationen for brug af beslutningsstøttende AI i offentlig sagsbehandling som både bygger på vores forskning og retningslinjer fra bla EU og OECD. Her er det også gennemgående at inddragelse af alle relevante interessenter er vigtig, ikke mindst allerede i ide-fasen. Den kan findes her: https://www.ds.dk/da/nyhedsarkiv/2020/4/nye-specifikationer-fra-dansk-standard-skal-goere-kunstig-intelligens-tryg-og-sikker

2
30. august kl. 21:50

Spændende artikel. Læs nævnte Morten Ejrnæs' artikel om den overdeterminerede sociale arv:

https://socialpaedagogen.sl.dk/arkiv/2005/paedagogiske-dage-morten-ejrnaes-om-social-arv/

Der er jo klokkeklart tale om base rate fallacy hos de tobenede. Og den bliver ukritisk overført til en blackbox-algoritme, som for nogen måske får den til at stå som mere autoritativ.

Jeg er ligesom forfatteren heller ikke maskinstormer på området - potentialet er at udfordre fordomme hos de tobenede - ikke tage dem for gode varer.

Feature-engineering af mennesker er svært - bl.a. fordi de kan være så uforskammede at forandre sig undervejs.

Et minimumskrav kunne været at forlange Explainable AI, hvor det tydeliggøres hvilke features med hvilken vægt, der har bidraget til resultatet.

1
30. august kl. 09:49

Så er der lige det med kvaliteten af data. Den aktuelle sag omkring fejludbetaling af varmechecks pga. fejl i datagrundlaget bør vel mane til besindighed mht.det forsvarlige i at tage beslutninger med enorme konsekvenser for andre mennesker baseret på data i registre - og det vel endda et temmelig lidt komplekst område (de data man har valgt at lægge vægt på) ift. så meget andet.

4
31. august kl. 08:49

Netop - sagen om varmechecken var et meget tydeligt eksempel på hvad der kan ske, når man træffer beslutninger på baggrund af data der er registreret til et andet formål (og derfor ikke kan forventes at være egnede til det nye formål).