Juridiske eksperter: Gladsaxes algoritme overtræder persondata-lov
Gladsaxe Kommune overtræder loven om persondata, i et projekt med at udvikle et dataanalytisk værktøj, der skal opspore familier med udsatte børn. Det mener tre juridiske eksperter, som Version2 har talt med, på baggrund af aktindsigt fra kommunen.
Gladsaxe mener derimod, at arbejdet med modellen alene sker på statistisk niveau.
Kommunen benytter i sit arbejde med at optræne en machine learning-model, som skal kunne udpege socialt udsatte familier, data fra borgere, som ikke i forvejen er i søgelyset fra de sociale myndigheder.
Altså oplysninger om borgere fra helt almindelige familier.
I et notat fra kommunen, der er udarbejdet som et bilag til et møde i Børne- og Undervisningsudvalget d. 20. november 2018, fremgår det, at der benyttes data fra borgere, som ikke er under søgelys i forhold til serviceloven.
Det fremgår ikke af notatet eller Version2’s øvrige aktindsigt fra kommunen, at borgerne informeres om anvendelsen af data til optræning af modellen.
Gladsaxe Kommunes børne- og familiechef Tine Vesterby Sørensen tilbød i december måned Version2 et interview med kommunens dataanalytikere, som vi tog imod. Den 9. januar fremsendte Version2 en række spørgsmål til kommunen. Gladsaxe har indtil videre nægtet at svare på disse spørgsmål.
Kommunen overholder ikke persondatalovgivningen
Version2 har forelagt notatet fra Gladsaxe for flere juridiske eksperter:
»Min juridiske vurdering er, på baggrund af notatet, at kommunen ikke overholder persondatalovgivningen, fordi man anvender data til et nyt formål,« siger advokat og ekspert i persondataret, Catrine Søndergaard Byrne.
»Persondataforordningen taler meget om ‘formålsbestemthed’. Hvis man skal genbruge data til noget andet end det første formål, så skal det ligge indenfor en forventning, som borgeren har, om hvordan data vil blive brugt. Men her går vi efter min opfattelse langt ud over, hvad man kan forvente.«
Så er der spørgsmålet om information.
»Når man anvender data til et nyt formål, skal man informere de personer, hvis oplysninger benyttes i den nye behandling. Det krav er vigtigt for man at som borger har kontrol med, hvad ens data bliver brugt til. Jeg kan ikke se, at det, kommunen gør her, ligger inden for de undtagelsesmuligheder, der findes.«
Hun forsætter:
»Jeg mangler sådan set hele den juridiske analyse, og særligt den konsekvensanalyse, som kræves af artikel 35 i persondataforordningen. En konsekvensanalyse skal laves, når man iværksætter behandling med ny teknologi, eller som har høj risiko for at påvirke individet. En systematisk analyse af, hvad der er af risiko og konsekvenser. Det er kommunen forpligtet til.«
En sådan analyse findes ikke i det materiale, som Version2 har fået i aktindsigt fra kommunen.
Catrine Søndergaard Byrne mener, at hvis sådan en analyse findes, burde den i en eller anden form indgå i aktindsigten.
»Jeg tror, at kommunen går skævt, helt fra starten af, ved at kommunen ikke mener, at den foretager sig noget, der har med persondatalovgivningen at gøre, fordi kommunen mener, at det er statistik. Kommunens udgangspunkt er efter min opfattelse forkert.«
»Jeg læser notatet som om, at kommunen siger: Vi skal opfinde en bil uden at tænke over, at der er krav om forlygter, signalgivning, og andre ting, som eksempelvis færdselsloven kræver. Man laver bare bilen, med fire hjul, motor og en kasse, og så kører vi afsted, og retter til hen ad vejen.«
Der findes metoder til at sløre persondata i algoritmer. Det kaldes ‘differential privacy’ i fagsproget. Denne term optræder ikke i den agtindsigt, Version2 har modtaget.
Lektor: Ingen overvejelser om lovligheden
Hanne Marie Motzfeldt, som er jurist og lektor ved Center for Informations- og Innovationsret ved Københavns Universitet, har denne kommentar:
»Hvis det passer, at kommunen forsatte med at udvikle og bruge data til algoritmen, i hvert fald frem til december 2018 og ikke har informeret borgerne, så er datalækken på de 20.000 følsomme oplysninger jo småting.«
Hun uddyber sit synspunkt således:
»Hvis det forholder sig, som det synes at fremgå af bilaget, så er jeg rystet. Der er ingen overvejelser om lovligheden af, hvad forvaltningen laver. Hvis der ikke ligger en solid, juridisk-faglig redegørelse som et skjult bilag, der ikke er blevet udleveret til Version2, så er vi på et tipping-point i den digitale forvaltning. Så er det akut, at vi går væk fra såkaldt politisk betjening, strategier og andre buzz-ord og genopfinder de gode gammeldags retsstatslige dyder. Man starter med loven, betvivler den ikke i sit hverv som offentlig ansat og man overholder den ubetinget i sit arbejde. Det står i alle offentlige ansattes jobbeskrivelse. Punktum.«
Hanne Marie Motzfeldt er selv borger i Gladsaxe Kommune. Hun har sympati for kommunens politikere:
»Byrådet er da helt på herrens mark her. De bliver jo holdt i mørket i forhold til, om kommunen overholder loven.«
De har ingen mulighed for at gennemskue, om det er lovligt, hvad forvaltningen laver, mener hun.
»Jeg kan ikke se, hvad forvaltningen baserer den her behandling på – hverken de udsatte familier eller de helt almindelige familier. De nævner jo ikke en lyd om databeskyttelseslovgivningen i redegørelsen til byrådet.«
Kommunen bruger dog ordene ‘statistikmodel’ igen og igen. Derfor gætter Hanne Marie Motzfeldt på, at kommunen har brugt ‘statistikreglen’ i databeskyttelsesloven.
»Det ville jeg nu nok have redegjort temmelig grundigt for. Det er nemlig ret usikkert, hvor langt man kan strække den regel, når man bruger kunstig intelligens, herunder machine learning, til at analyse borgernes persondata – og politikerne bør da vide, når de er på usikker grund.«
Hun slutter:
»Hvor jeg imidlertid står helt af, er, at de slet ikke nævner noget om information af borgerne. Det er virkelig mærkeligt. Transparens er helt utrolig vigtig i GDPR. Borgerne skal vide, hvad der foregår.«
’Forskning’ er en kattelem, men borgerne skal underrettes
Det er uklart, på hvilken baggrund kommunen bruger de pågældende data, siger Ayo Næsborg-Andersen, som er jurist og lektor i persondataret på Syddansk Universitet.
»Det skylder embedsfolkene at fortælle deres politikere.«
Der ligger en undtagelse i persondataforordningen som gør, at man stort set altid må bruge data til statistik.
Der, hvor det bevæger sig fra at være statistik, til noget man skal tage nærmere stilling til, er, når det får konsekvenser for den enkelte, fortæller hun.
»Det er ikke defineret i forordningen, hvad statistik er. Det kan vi så undre os over. Det norske datatilsyn, som har et tæt samarbejde med det danske, siger, at man godt kan betragte optræning af en algoritme som forskning. Problemet er, at forskning heller ikke er defineret. Hvis man definerer forskning som ny viden, så er alt forskning.«
En normal forståelse af definitionen af forskning inkluderer, at der er et sæt spilleregler der skal overholdes, som f.eks. det danske kodeks for integritet i forskning.
»Man kunne overveje, om ikke også kommunerne burde overholde disse spilleregler, hvis det, de foretager sig, skal defineres som forskning. Det ville blandt andet indebære, at de skulle kunne redegøre for deres valg af statistiske modeller, og for at de stemmer overens med gældende akademisk praksis.«
Hun forsætter:
»Men selv om det er statistik eller forskning, så kan man kun undlade at give meddelelse til borgerne om, at man benytter deres data, hvis det giver en uforholdsmæssig stor indsats. Og det synes jeg ikke kommunen kan hævde her, fordi det vides, hvem borgerne er.«
Forskning er per definition lovligt, men kommunen skulle, som et absolut minimum, under alle omstændigheder orientere borgerne.
Ayo Næsborg-Andersen undrer sig også over, hvordan kommunen kan vide, at de familier, som kommunen har medtaget i kontrolgruppen, ikke er 'skjult' sårbare.
»Der kan være en bias, hvor man ved, at hvis forældre eksempelvis er ledige, så er man hurtigere til at indberette, end hvis forældrene er rige. Det skal kommunen tage højde for, ellers er det dårlig statistik. Og mit næste spørgsmål er: Hvor mange regner de med at fange, som de ikke kender i forvejen? Måske skulle man smide pengene efter at hjælpe børnene, i stedet for at finde dem. Man tror, at flere data kan løse problemerne. Min påstand er, at ni ud af ti gange, har myndighederne allerede de relevante data. De behøver ikke at skabe sådanne algoritmer.«
Gladsaxe: Arbejde med model sker alene på statistisk niveau
Gladsaxe Kommune har på mail sendt en kommentar fra børne- og familiechef, Tine Vesterby Sørensen, som vi her gengiver i sin helhed:
»Det er vigtigt at understrege, at Gladsaxe Kommunes arbejde med en dataunderstøttet opsporingsmodel alene sker på statistisk niveau.
Når vi taler statistisk behandling af personoplysninger, fremgår det ganske klart af databeskyttelsesforordningen, at formålsbestemhedsprincippet – som er det princip, som sætter en retlig grænse for adgangen til at viderebehandle personoplysninger til nye formål – ikke finder anvendelser, når der sker behandling af personoplysninger til statistiske formål.
Der er således ikke tale om, at Gladsaxe Kommune i det nuværende arbejde med Gladsaxe-modellen foretager personhenførbare analyser af børn eller forældre. Hvis dette var tilfældet, er det dog helt korrekt, som du også citerer dine kilder for, at vi ville være bundet af det oprindelige formål med vores indsamling af personoplysningerne.
I forhold til orientering af borgere, hvis data indgår i den statistiske undersøgelser, så er retten til orientering jo en af de grundlæggende rettigheder, som de registrerede har i forordningen. I det nuværende statistiske arbejde er datagrundlaget dog så stort, at det ikke er muligt at opfylde denne oplysningspligt. Dette er helt efter databeskyttelsesforordningens regler, da retten til at modtage oplysninger om behandlingen ikke gælder, hvis det vil kræve en uforholdsmæssig indsats, hvilket navnlig er tilfældet for statistiske projekter.
Hvis det pågældende bilag har givet anledning til misforståelser omkring ovenstående, kan vi kun beklage.«

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.