Debat om kunstig intelligens og borgerdata: »Vi skal lige stoppe op og tænke«
Interesseorganisationen Dansk IT's konference om offentlig digitalisering, som blev afholdt i sidste uge i Musikhuset i Aarhus, kunne onsdag eftermiddag byde på debat om kunstig intelligens i den offentlige sektor og de etiske aspekter, der følger med.
Panelet indeholdt blandt andre Stephen Alstrup, som er professor ved Datalogisk Institut på Københavns Universitet. Han åbnede ballet ved at problematisere, hvad vi forstår ved data:
»Der var en formand for forældrerepræsentanter, der sagde til mig: ‘Der er ikke nogen, der må have data på mit barn’. O.k., tænker jeg, men hvis jeg ikke må have data om dit barn, så kan jeg ikke have skoleopgaver eller bare den oplysning, at dit barn går i skole.«
Når vi bruger ordet data, mener vi måske noget forskelligt, og mange uenigheder bunder i disse forskellige opfattelser af, hvad data egentlig er, lød synspunktet.
»Nu har vi algoritmer, og Danmark har rigtig mange data, og så kommer der nogen og siger: 'Nu skal vi snakke etik, og vi må ikke bruge algoritmer på disse data'. For tænk nu, hvis vi var onde kinesere. Men når vi først har de her data, så skal vi bruge dem til at lave den bedst mulige service til vores borgere. Når jeg går op til lægen og fortæller om mine symptomer, hvorfor skal der så ikke være en datamaskine, der leder efter mønstre og siger: 'De her symptomer svarer til denne sygdom'? Eller hvis man sagde til Skat: 'I må kun bruge en kugleramme'?«
Borgernes data skal bruges
Man kan godt diskutere, hvilke data Skat skal have, og hvilke data skolerne skal have, mente Stephen Alstrup.
»Men vi skal bruge de data, vi har, til at give den bedste service. I etik-debatten er mange ude og sige: 'I må ikke bruge data', men de forklarer mig ikke, hvorfor man ikke må bruge dem. Hvem tager ansvar for alt det, vi ikke gør? De, der siger, vi ikke må gøre noget, tager ikke ansvar for det, vi ikke må,« sagde Stephen Alstrup og kom med følgende eksempel:
»Jeg lavede et system, der kan forudsige med 95 procents nøjagtighed, hvilke studerende der ville droppe ud af gymnasiet de næste tre måneder, så man kan hjælpe dem. Det blev taget ned af etiske årsager. Hvad med alle de elever, der har fået en dårlig oplevelse, fordi de ikke er blevet hjulpet – hvem har taget det etiske ansvar for dem?«
Stephen Alstrup savner balance i debatten:
»Det er fint at snakke etik, men skulle vi ikke lige starte med bankerne først? Eller hvad med svampemidlerne, landmændene hælder ned i vores drikkevand? Så bliver jeg bekymret. Bliver jeg bekymret over, at en læge har adgang til at finde ud af, hvilken sygdom jeg lider af? Netflix må godt bruge algoritmer til at finde ud af, hvad mit barn skal se lige nu, men de skal saftsuseme ikke bruge det ovre i skolen,« lød det retoriske argument.
Afgivelse af data er en borgerpligt
Men skal det være et tilbud eller tvang, der fører data ind i et kunstig intelligens-program, ville ordstyrer Kim Stensdal fra Dansk IT vide.
Det spørgsmål kunne vicechef i NNIT Lars Andersen give et bud på:
»Det er en borgerpligt at dele data, for vi er jo ikke individer, der flyver rundt for os selv – vi er en del af samfundet, og derfor har vi også en pligt til at dele vores data, men de skal selvfølgelig beskyttes.«
Bo Rasmussen, som er kommunaldirektør i Gladsaxe Kommune, mener også, at data skal i spil:
»I dag har jeg lyttet til debatterne, og Gladsaxe er blevet kaldt 'Nordkorea,' 'Kina' og ‘ulækker.’ Men det handler om, hvordan vi kan udnytte de data, vi har til rådighed, bedst muligt. Jeg bruger nogle gange begrebet ‘dobbeltetik’ – vi skal beskytte borgernes data, og der skal være gennemsigtighed i det, vi laver. Men der er også en etik, der peger på, at når vi har data og viden om noget, der er ved at gå galt, så skal vi bryde ind.«
Når der er grimme sager i pressen om tvangsfjernelser, får kommunerne at vide: 'Hvorfor gjorde I ikke noget tidligere? I har jo data liggende'.
»Vi har set på, hvordan vi kan bruge data, vi har i kommunen, på en måde, som er stærkere end det, vi ellers har gjort. Vi er ikke ved at nedlægge sagsbehandler-stillinger. Tværtimod har vi ansat flere sagsbehandlere til at kigge på mønstre. Det, vi er optagede af, er, om vi tidligere kunne gå ind i disse processer og redde børn fra de familier, hvor det er ved at gå galt.«
Bo Rasmussen understreger, som kommunen også tidligere har meldt ud, at Gladsaxe ikke foretager sig noget med data i øjeblikket.
Men som Version2 tidligere har skrevet, vurderede tre juridiske eksperter, at kommunen overtrådte persondataloven i sit arbejde, der fortsatte i hvert fald 12 måneder efter, at Gladsaxe fik afslag på den frikommuneansøgning, der skulle have lovliggjort projektet.
Masser af upåagtede underretninger
Lars Andersen fra NNIT pegede på, at manglende indsigt i data måske ikke er hovedproblemet:
»Man skal tænke på, at når man vil hjælpe børn, er det så måden at starte på? Jeg har læst, at 40 procent af de underretninger, der kommer fra pædagoger og andre, bliver der ikke reageret på. Vi har massiv overvågning, for hele befolkningen har pligt til at lave underretninger.«
Bo Rasmussen fra Gladsaxe indførte, at det naturligvis ikke handler om at kigge på alle borgere.
»Hvordan finder I så dem, I ikke kender i forvejen?« spurgte ordstyrer Kim Stensdal.
»Vi kigger blandt andet på data fra beskæftigelse og sundhedsvæsenet. Der er mønstre, der pludselig bliver tydelige,« lød svaret, der ikke rigtigt besvarede spørgsmålet.
Professor Thomas Hildebrandt fra Københavns Universitet mener ikke, at algoritmerne er køreklare i dag:
»Vi har en masse viden om, hvilke teknikker man kan tage ned fra hylderne, men vi er stadig i den spæde start i forhold til at finde ud af, hvordan vi kan bruge dem korrekt. Enkelte dygtige forskere kan gøre det, men vi har ikke folk, der kender disse teknikker godt nok.«
Uklar sammenhæng mellem databaser og virkelighed
Nem software kan give en falsk tryghed i sagsbehandlingen, men der er behov for en tænkepause, sagde Thomas Hildebrandt:
»I øjeblikket kan alle være en ‘håndværker’, fordi man kan købe svensknøglen. Man kan købe en AI-maskine, og så kan man gå i gang.«
Han fortsatte:
»Men vi skal lige stoppe op og tænke: 'Hvordan sikrer vi, at de data, der kommer ind, rent faktisk betyder det, de betyder? Jeg har selv kigget på Jobcentrenes data, og det er bestemt ikke klart at finde sammenhængen mellem det, der står i databasen, og det, der sker i virkeligheden. Så længe vi ikke er kommet længere, skal vi passe på.«
Blandt publikum fandtes Birgitte Eiriksson, som er vicedirektør i tænketanken Justitia og tidligere juridisk chefkonsulent i Rigspolitiet. Hun havde følgende kommentar til det juridiske aspekt af debatten:
»Overvejer vi, om vi krænker privatlivets fred? Der er betingelser, der skal være opfyldt, og propertionalitetsbetingelsen bliver svær, ikke kun i Gladsaxe-modellen, men også i mange andre løsninger.«
Denne betingelse er givet i persondatalovgivningen, og den betyder, at dataindsamling skal være minimal og proportional i forhold til formålet.
Kunstig intelligens fungerer ikke super-godt
Konferencens tovholder, Dansk IT’s direktør, Rikke Hvilshøj, var også at finde på publikums stolerækker. Hun spurgte panelet, om der ikke var tale om en glidende overgang til at forsøge at forudsige noget, som den enkelte borger ikke har gjort og måske ikke kommer til at gøre.
Thomas Hildebrandt mente ikke, at det er nyt, at en sagsbehandler for eksempel prøver at forudsige, om en arbejdsløs borger er i risiko for at blive langtidsledig:
»Det nye er, at processen automatiseres.«
En anden tilhører, vicedirektør Flemming Christiansen fra Sundhedsdatastyrelsen, spurgte, om etik-debatten ikke kun gav mening i de enkelte tilfælde:
»Vi kan sagtens samkøre data fra indkøbsboner med sundhedstilstand, men vil vi det? Kan debatten tages generelt?«
Lars Andersen fra NNIT bifaldte det implicitte synspunkt:
»Al denne snik-snak på det høje plan fører kun til, at konflikten eskalerer,« sagde han med henvisning til debattens yderpunkter.
»Vi skal prioritere at undgå fejl og bias i kunstig intelligens-modeller. Vi lader, som om systemer til kunstig intelligens fungerer super-godt. Det gør de jo ikke.«

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.