Algoritme skal prioritere kommunes børnesager: »Vi arbejder grundigt med at fjerne bias«
Aarhus Kommune får i omegnen af 7000 underretninger på børne- og familieområdet årligt - og der er pres på.
Derfor forsøger man nu at understøtte kommunens rådgiverteam med en algoritme, der skal lave prioriteringsarbejdet, så de mest akutte underretninger ender øverst i bunken.
I kølvandet på Trygfonden og Via University Colleges omdiskuterede AI-projekt, ‘Underretninger i Fokus’, der ligeledes beskæftiger sig med børneområdet, har der været en del kritik af ideen om at benytte kunstig intelligens i så følsomme sager.
- emailE-mail
- linkKopier link

Fortsæt din læsning
- Sortér efter chevron_right
- Trådet debat
- Projektet er et af DIGST højt profileret signaturprojekt, så mon ikke det bliver en "succes"? https://digst.dk/nyheder/nyhedsarkiv/2020/september/13-nye-projekter-skal-bruge-kunstig-intelligens-i-klimakampen-og-til-bedre-behandling-paa-hospitalerne
- Alle som ved bare en smule om ML ved, at der altid vil være bias. Hver gang man forsøger at fjerne bias, reducerer man modellens pålidelighed. Det har man i Tryg-fondens model søgt at løse ved at gange en nøje beregnet faktor på parametrene, hvilket blot giver en mere obskur model, som i stedet har en selektiv bias, så den giver det ”ønskede” resultat. Men under alle omstændigheder vil flere børn fra Gjellerup havne i rød bunke end børn fra Risskov.
- Hjemmel. Mon ikke Århus kommune benytter ATP-modellen (Udbetaling Danmark), hvor det er deres egne jurister som afgør, hvilke data som må høstes og opbevares?
- Kommunens pligt. Kommunen er forpligtet til at vurdere en underretning inden for 24 timer. https://sm.dk/arbejdsomraader/udsatte-boern-og-unge/underretningspligt/kommunens-pligt. Er projektet ikke en omgåelse af denne pligt?
- more_vert
- insert_linkKopier link
Også min tanke. Men det er nok det sædvanlige med, at man har opbrugt pengene på personalekontoen, hvorimod der sagtens kan findes penge på IT-kontoen.Også min tanke: Ville det i virkeligheden ikke også være billigere at ansætte (slag på tasken) 2-3 personer til at skimlæse de indkomne underretninger, og prioritere dem? - Hele projektet lyder som et dyrt teknologiprojekt, som skal dække over, at man ikke har afsat ressourcer nok til den opgave, som reelt skal løses.
Og så er der en anden tanke, som ikke har været nævnt: Der tales om bias. Nogle borgere er vanvittigt gode til at tale deres sag og "snyde sig foran i køen" til offentlige betalinger, medens andre bare respekterer et nej - og bliver snydt. Det er vanvittig svært for en medarbejder at sige fra overfor de truende/udadreagerende borgere. Et system uden bias kunne hjælpe de medarbejdere. Det er bare noget l... , hvis man får endnu et "system", som ingen forstår. Offentlig forvaltning er fuld af systemer i form af paragraffer, som ingen husker formålet med. Man følger dem bare og tør ikke sætte spørgsmålstegn ved dem. Næste skridt er nemlig, at man fjerner de medarbejdere, der ved noget om fagområdet, og indsætter rene paragrafryttere.
- more_vert
- insert_linkKopier link
Også min tanke: Ville det i virkeligheden ikke også være billigere at ansætte (slag på tasken) 2-3 personer til at skimlæse de indkomne underretninger, og prioritere dem? - Hele projektet lyder som et dyrt teknologiprojekt, som skal dække over, at man ikke har afsat ressourcer nok til den opgave, som reelt skal løses.
- more_vert
- insert_linkKopier link
Hvor lang tid må det så gå, inden en sag i gul eller grøn bunke bliver reelt behandlet i Aarhus Kommune?
Eller rød.
Et meget relevant spørgsmål.
Jeg har tidligere haft kontakt til ældreplejen i Århus kommune.
Man bliver chokeret over hvordan forvaltningen med løgn og bedrag forsøger at undgå at sikre relevante og lovpligtige hjælpemidler.
Hvis de folk (kolde hænder) får løn, så blev der brugt væsentligt flere penge på krumspring og løgne, end hjælpemidlet kostede.
- more_vert
- insert_linkKopier link
Bliver algoritmens beslutningsgang frem til dens prioriteringsforslag gennemsigtig? "Jeg har besluttet, at denne sag er særligt akut, da familien bor i Gjellerupparken".....
Og når nu man har brugt meget tid på at lære algoritmen ikke at have bias (held og lykke med det - læs Cathy O'Neils "Weapons of Math Destruction" - så bliver man kureret for alle illusioner om, at det kan lade sig gøre. Den bog burde være obligatorisk læsning for alle, som ønsker at igangsætte sådanne "signaturprojekter" - OBLIGATORISK!!!), kunne man så ikke have brugt tilsvarende megen tid på at lære sagsbehandlerne/rådgiverne at undgå deres bias?
Eller kunne man have ansat en sagsbehandler, hvis eneste opgave var at læse nye sager igennem og prioritere dem, inden de gives videre til sagernes egen sagsbehandler?
- more_vert
- insert_linkKopier link
Hvor lang tid må det så gå, inden en sag i gul eller grøn bunke bliver reelt behandlet i Aarhus Kommune?
- more_vert
- insert_linkKopier link
7.000 sager om året er med et 200 dages arbejdsår 35 sager om dagen, der skal prioriteres. Er man så ikke nede i en størrelsesorden, hvor det giver mindre mening at bruge AI?
- more_vert
- insert_linkKopier link
"Inge sigfer, at sagsbehandleren har mod/selvtillid til at sætte spørgsmålstegn ved en sag, som algoritmen har vurderet til "meget akut og alvorligt, skal prioriteres først)."
Nej, og man ser tydeligt hvad der nemt sker med dem som trods alt har modet og selvtilliden. De bliver fyret ligesom Bitten Vivi Jensen blev da hun begyndte at tale op om kriminel adfærd og ulovlig sagbehandling i Frederiksberg kommune. En adfærd som i øvrigt fortsætter mere eller mindre som hidtil, den dag i dag.
- more_vert
- insert_linkKopier link
@ Aarhus, "Tell me you don't understand AI, without telling me you don't understand AI"
- more_vert
- insert_linkKopier link
"»Det er beslutningsunderstørrende. Det er ikke besluttende på nogen måde. Den fremlægger kun et prioriteringsgrundlag for de fagprofessionelle,« fortæller Rasmus Ry Nielsen."
Jo, det er besluttende. Det beslutter, hvordan sagerne skal prioriteres. Og det kan være mindst lige så farligt, hvis de prioriteres forkert. Der bør være sagsbehandlere og fagfolk nok til, at de kan nå at gå nyindkomne sager igennem, og priorietere dem der, hvor de synes, de skal prioriteres. Og der er risiko for, at sagsbehandlerne alligevel lader sig påvirke af algoritmens vurdering af , hvilke sager, der er alvorligst (prioritering). Inge sigfer, at sagsbehandleren har mod/selvtillid til at sætte spørgsmålstegn ved en sag, som algoritmen har vurderet til "meget akut og alvorligt, skal prioriteres først).
"‘Risikovurdering af underretninger’ løber fra start 2021 til midten af 2022 og projektet har fået tildelt 2,1 millioner kroner."
Hvad kommer det til at koste (hvor mange sagsbehandlere og socialrådgivere) at drive fremover på forsvarlig vis?
Er det kommunen selv, der udvikler det, eller er der et firma (og dermed en hær af lobbyister) involveret?
Opretter algoritmen selv sager ud fra data i diverse kilder (opsporing), eller arbejder algoritmen kun med sager, som andre (pædagoger, naboer, lærere, tandlæger etc.) har anmeldt?
Hvis det er det første (som Gladsaxe vist arbejdede med for et par år siden), hvilke datakilder inddrages så?
Det kunne være rart at høre HIldebrandts kommentarer til dette projekt.
- more_vert
- insert_linkKopier link
... kører lobby maskinen derudaf med glatte sælgere galore:
Føj for helvede. Der er nogen som er i stand til at kaste så store økonomiske resourcer ind i markedsføringen, stille så gode 'ben' i sigte for beslutningstagerne, og snyde så meget på vægten vedr. faktualitet, at demokratiske forsamlinger og borgere aldrig har en chance i længden.
Gå af H til, alle i offentligt-private nigeria scam'ere som tømmer kommune-kassen og udnytter borgerne med jeres slangeolie.
- more_vert
- insert_linkKopier link