AI-professor kritiserer model bag børneprofilering: »En god illustration af forskellen på transparens og forklarlighed«

AI-professor kritiserer model bag børneprofilering: »En god illustration af forskellen på transparens og forklarlighed«
Illustration: Rawpixel.com, Bigstock.
Forskere bag projekt ‘Underretninger i fokus’ svarer på kritik af modellen, der skal resultere i et værktøj til algoritmisk beslutningsstøtte i kommunerne.
19. maj 2020 kl. 05:01
errorÆldre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Som Version2 tidligere har skrevet, arbejder VIA University College og Trygfondens Børneforskningscenter på Aarhus Universitet med at udvikle et dataanalytisk værktøj, der skal opspore mistrivsel blandt børn.

Projektet ‘Underretninger i fokus’ ønsker at undersøge, hvordan man kan skærpe det beslutningsgrundlag, som socialrådgivere har til rådighed, når det gælder underretninger. Det skal resultere i et værktøj til algoritmisk beslutningsstøtte i kommunerne. Et pilotprojekt har allerede været i anvendelse i to kommuner.

Beslutningsstøtten bygger på en såkaldt prognostisk model - en model, der på et sandsynlighedsmæssigt grundlag kan give et bud om fremtiden.

Den er udviklet på baggrund af data fra alle danske underretningssager fra april 2014 til udgangen af 2017 – i alt ca. 367.000 sager.

Modellen er udarbejdet af en gruppe forskere tilknyttet Trygfondens Børneforskningscenter, Institut for Økonomi, Aarhus BSS ved Aarhus Universitet under ledelse af professor Michael Rosholm.

Log ind og få adgang
Du kan læse indholdet ved at logge ind eller oprette dig som ny bruger.
Debatten
Log ind for at deltage i debatten.
settingsDebatindstillinger
5
19. maj 2020 kl. 15:30

De kunne i øvrigt være interessant at høre hvordan Trygfonden har taget højde for den meget høje fejlrate i kommunernes behandling af børnesager, med København helt i top, som Ankestyrelsen afslørede i 2019.

Hvis ikke de fejlbehandlede sager er sorteret fra, så må kan man vel kun forvente at status quo vil blive fastholdt af dette produkt (-ja, "produkt", for forskning er det i hvertfald kun i det omfang at man derved kan omgå persondatabeskyttelsesreglerne).

4
19. maj 2020 kl. 15:12

Jeg i en tidligere tråd fremhævet at der følger betaling med til kommunerne hvis de deltager i afprøvningen af produktet:https://childresearch.au.dk/fileadmin/childresearch/dokumenter/Invitation_til_at_deltage_i_projekt_Underretninger_i_Fokus.pdfJeg tillader mig at gøre opmærksom på det igen, da jeg synes det er ret beskidt at købe sig adgang til forsvarsløse forsøgskaniner (som bestemt ikke selv kommer til at modtage en krone i bestikkelse):

"Deltagelse i projektet indebærer en forpligtelse for jer som kommune til at bidrage aktivt til, at projektgruppen kan få adgang til data i jeres fagsystemer, samt for at kunne implementere Beslutningsstøtten i jeres IT løsning. Derudover forpligter I jer til, at alle rådgivere, som arbejder med modtagelse af underretninger, deltager i afprøvningen af Beslutningsstøtten, samt at vi må følge jer gennem interviews og observationer."

"Størrelsen på den økonomiske kompensation afhænger af 1) hvor mange rådgivere, der er tilmeldt projektet og 2) i hvor mange underretningssager, Beslutningsstøttenanvendes. Eksempelvis vil en kommune med 15 tilmeldte rådgivere og 400 underretninger (hvor Beslutningsstøtten anvendes i cirka halvdelen) modtage ca. 72.500 DKK".

Desuden vil der være gratis ledelsesudviklingkursus inkluderet for lederne. Rådgiverne, dvs. socialrådgiverne, kan tilgengæld glæde sig til at skulle tage et par dages rådgivning fra de borgere de ellers skulle hjælpe, og i stedet deltage i træning, evaluering, og sikkert også indoktrinering i værktøjet, foruden at de skal finde sig i at blive observeret af TrygFondens samarbejdspartnere fra ind og udland.

3
19. maj 2020 kl. 11:44

Har man ikke samme problem, som politiet med deres overvågningsønsker? I alle kendte tilfælde har man fundet personerne i forvejen via den almindelige kendte arbejdsgang. Dvs. man arbejder på en løsning af et ikke-eksisterende problem. At man undlader at reagere på de indberetninger man allerede har, det hjælper masseovervågninng ikke på.

2
19. maj 2020 kl. 10:44

Der dukker altså nogle sjove overvejelser op, når man taler om at forudsige handlinger:

Computer: I vil med 90% sandsynlighed anbringe dette barn udenfor hjemmet inden for 180 dage.

Kommune: Så må vi hellere beskytte barnet og gøre det!

Resultat: jo oftere algoritmen forudser en hændelse, jo oftere vil den hændelse ske - og jo mere vil man tro på algoritmen, for den får jo ret! Det bliver meget nemt og meget menneskeligt en selvopfyldende profeti, når beslutningstager og orakle forbindes med hinanden. Meget sammenligneligt med Placebo effekt af medicin - bare ved at tro det virker, ændrer vi vores handlinger, så det ender med at virke.

Hvor mange har set "Devs" på HBO :^)

1
19. maj 2020 kl. 06:30

Hvis man ønsker transparens burde man nok starte med at opskrive modellen på en mindre obfuskeret måde.

Som den er beskrevet lige nu har hver lineært led en vægt ganget på på hver side (den ene bare som en division i stedet).

Netop disse vægte er ellers en af de ting der kan bruges til at give en mere forståelig beskrivelse af hvad det egentlig er der har indflydelse på det endelige resultat, men i dette tilfælde skal man altså selv lige regne nogle ting sammen for at finde vægten.

Man har så også indsat nogle forskydelser ved hver parameter, sådan så man for eksempel kan se at det ikke er barnets alder, men barnets alder - 9,6308 som indgår i modellen. Så tænker man straks at der er et eller andet springende punkt omkring når barnet er omkring de 9½ år. Men fordelingen af forskydelser er jo arbitrær, og den samlede forskydelse kunne have været samlet som en enkelt konstant uden at ændre modellen.