Gladsaxe arbejder videre på overvågningsalgoritme - trods nej fra ministerium

Illustration: Bigstock
Afslag på frikommune-ansøgning og regeringens nylige udmelding om at lægge modellen i skuffen får ikke kommunen til stoppe arbejdet.

På trods af, at Gladsaxe Kommune fik afslag på frikommune-forslag om digital overvågning af børnefamilier med sociale problemer, og at regeringen for nylig meddelte, at den vil lægge modellen i skuffen, arbejder kommunen videre på den kunstige intelligens, der ligger bag systemet.

Læs også: Regeringen lægger Gladsaxe-overvågning i skuffen

Kommunen er også i dialog med Danmarks Statistik om at bringe yderligere borger-data til udviklingsarbejdet end dem, som kommunen selv ligger inde med.

Men Gladsaxe Kommune er ikke optimistisk med hensyn til, om det bliver muligt at anvende algoritmen i praksis.

Det siger kommunens børne- og familiechef, Tine Vesterby Sørensen, til Version2.

Supplerer med data fra Danmarks Statistik

»De data, vi forsøger at lægge ind i algoritmen lige nu, og som vi ikke har en tilstrækkelig mængde af, er egne data fra Gladsaxe Kommune. Det er eksisterende sager, hvor man laver en vurdering af, hvad der er et udsat barn. Og det er alle de børn, som modtager en foranstaltning efter paragraf 52 i serviceloven. Det vil sige børn, som der allerede er lavet underretninger på, og som er vurderet som udsatte.«

»Vi er godt klar over, at det ser sort ud – det skal der ikke være nogen tvivl om, « siger Gladsaxe Kommunes børne- og familiechef, Tine Vesterby Sørensen, om udsigten til at benytte kunstig intelligens i forbindelse med udsatte børn. Illustration: Gladsaxe Kommune

Kommunen tager derefter data på disse børn og deres forældre og lægger det ind i algoritmen for at finde indikatorer, som peger på en særlig grad af udsathed.

»Vores it-systemer har kun været digitaliseret siden omkring 2010. Vi kommer til at mangle data i forhold til at lave en gyldig algoritme, da vi ikke har data på de børn, som er mellem 16 og 18 i dag, fra dengang de var små. Derfor er vi ikke så langt i arbejdet lige nu.«

De data, som kommunen ønsker leveret fra Danmarks Statistik, er data på borgere, som kommunen selv ligger inde med, men som går længere tilbage i tid.

Der er derfor ikke tale om en færdiglavet algoritme, men et pågående udviklingsarbejde.

»Om vi så får lov til at bruge algoritmen, er jo ikke sikkert.«

Tandplejen udpeger udsatte børn

»De data, som vi søgte om lov til at bruge oprindeligt, er beskæftigelsesdata, data omkring serviceloven, data fra tandpleje, sundhedspleje, flyttehistorik og rusmiddelbehandling. Regeringen gav os afslag på frikommuneansøgningen, men med den begrundelse, at de ønskede at lave en bekendtgørelse, der gjorde, at alle kommuner får lov til at gøre det her.«

Algoritmen trænes med anonymiserede data, uden cpr-nummer.

»Der er ikke nogen, der kan se enkelte familier på nuværende tidspunkt.«

Gladsaxes algoritme udvikles af kommunens egne dataanalytikere, så det giver ikke ekstra omkostninger for kommunens borgere.

»Vi er en kommune, der har en stor satsning på data i det hele taget og på databaseret ledelse.«

»Det ser sort ud nu«

I sidste uge skød regeringen Gladsaxe-modellen ned.

»Intet tyder på, at kommunerne i dag er klar til at håndtere mere komplekse opgaver med samkøring af data,« udtalte den politiske ordfører fra regeringspartiet Liberal Alliance i den anledning til Politiken.

Men det afskrækker ikke Gladsaxe Kommune ifølge Tine Vesterby Sørensen:

»Vi er da godt klar over, at det ser sort ud nu – det skal der ikke være nogen tvivl om. Når regeringen kommer med sådanne udtalelser, så tænker vi: 'Gad vide, om regeringen er villige til at lade os prøve det af'. Vi oplever dog ikke, at vi har fået endelig besked fra ministerierne, som vi løbende er i dialog med, at det her er dødt, og at det ikke kommer til at ske indenfor den nærmeste årrække. Derfor har vi stadig en forhåbning om, at det bliver til noget.«

Ikke tonedøve

»Men når det er sagt, så tror vi åbent og ærligt på, at dette er en måde at opspore udsatte børn på, langt tidligere og langt mere sikkert end man gør i dag, hvor det er enkelte mennesker, der skal lave denne vurdering, og hvor flaget bliver hejst mange forskellige steder i så lille en grad, at man simpelthen ikke får øje på, at det her er et udsat barn. Hvorfor skal vi vente på, at barnet faktisk har taget skade, inden vi gør noget? I Gladsaxe Kommune tror vi på, at det her er en model, som er rigtig anvendelig til at finde de udsatte børn tidligere. Men når det er sagt, så er vi da ikke tonedøve.«

Tine Vesterby Sørensen mener i øvrigt ikke, at der er tale om overvågning.

»Man bliver ikke overvåget, da det er en 'sort kasse' – det er kun de ganske få borgere, hvis risikofaktorer er til stede for, at et barn på et senere tidspunkt kunne blive udsat på baggrund af de vurderinger, der bliver lavet i algoritmen. Det er det eneste, vi får at se. Alt andet er ikke tilgængeligt for os. På den måde tænker jeg ikke, at der er tale om overvågning.«

Version2 håber på et senere tidspunkt at bringe et interview med Gladsaxe Kommunes dataanalytikere angående algoritmen.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (32)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Anne-Marie Krogsbøll

Dette er grimt - grimt. Man bliver nærmest tom for ord...Mage til omgang bullshit. Og denne dame har adgang til borgernes yderst personfølsomme data - det vil i praksis sige deres privatliv? Det løber mig koldt ned ad ryggen - og endnu mere, fordi der findes tusinder af hens slags i magt- og indflydelseshavende kredse.

Man fornemmer tydeligt, at de ikke selv tror på, at de er på fast grund rent juridisk og etisk og moralsk - de kan bare ikke nære sig. Og de har åbenbart ikke engang sat sig ind i "anonymt", for så ville de vide, at dén definition, de lyder til at anvende, intet har at gøre med "anonymt".

*"»Man bliver ikke overvåget, da det er en 'sort kasse' – det er kun de ganske få borgere, hvis risikofaktorer er til stede for, at et barn på et senere tidspunkt kunne blive udsat på baggrund af de vurderinger, der bliver lavet i algoritmen. Det er det eneste, vi får at se. Alt andet er ikke tilgængeligt for os.

Og fordi de i forvejen er sårbare familier, så kan man blæse på alle rettigheder og al etik? Jeg glæder mig til forhåbentligt at høre Bjarne Nielsen pille denne bortforklaring af anonymitet helt fra hinanden. ​

"På den måde tænker jeg ikke, at der er tale om overvågning.«"

"Tænker ikke"? Ikke det?

Et godt amerikansk ordsprog siger: "You can put lipstick on a pig - it's still a pig".

(Jeg kunne godt tænke mig at høre Erik David Johnsons udlægning af denne "etiske" historie).

Anne-Marie Krogsbøll
Jesper Frimann

Jeg synes at Tine Vesterby Sørensen, skulle tage en god snak med Preben Rohde, som er Gladsaxe kommunes DPO.

Og så burde hun måske også læse Gladsaxe Kommunes sammenhængende børne- og ungepolitik 2015-2020, som faktisk slet ikke ser så tosset ud når man skimmer den igennem .
Der står bla.:

Selvom Gladsaxe Kommune fungerer som en enhedsforvaltning betyder det ikke, at alle oplysninger frit kan videregives. Når det drejer sig om samme forvaltning, må alle relevante og væsentlige oplysninger, der er af betydning for arbejdet med barnet og familien, videregives. Videregivelsen skal have et klart sagligt formål og være nødvendig for, at modtageren kan udføre sin opgave på en kvalificeret måde.

For hun går 'så galt i byen' i forhold til GDPR, ånden i service loven, hendes egen kommunes politikker, at det er for stort et arbejde at liste punkterne her.

Udsatte børns problemer løses ikke med magisk 'IT-pixiedust', men med en målrettet indsats med familien i fokus. Sagt med andre ord med 'Boots on the Ground' .

// Jesper

Anne-Marie Krogsbøll

"»De data, vi forsøger at lægge ind i algoritmen lige nu, og som vi ikke har en tilstrækkelig mængde af, er egne data fra Gladsaxe Kommune. Det er eksisterende sager, hvor man laver en vurdering af, hvad der er et udsat barn. Og det er alle de børn, som modtager en foranstaltning efter paragraf 52 i serviceloven. Det vil sige børn, som der allerede er lavet underretninger på, og som er vurderet som udsatte.«
Kommunen tager derefter data på disse børn og deres forældre og lægger det ind i algoritmen, for finde indikatorer, som peger på en særlig grad af udsathed."

....

Man bliver ikke overvåget, da det er en 'sort kasse' – det er kun de ganske få borgere, hvis risikofaktorer er til stede for, at et barn på et senere tidspunkt kunne blive udsat på baggrund af de vurderinger, der bliver lavet i algoritmen.


Jeg forstår ikke dette. Man putter formodede risikofaktorer ind i boxen, og så forventer man at få formodede risikofaktorer ud? Voila?

Eller er det to processer, hvor man sammenholder formodede risikofamilier, der har formodede risikofaktorer, man allerede kender (eks. tandlægepjæk), med familier, der allerede er faldet igennem, og hvilke risikofaktorer, de har udvist?

Jeg forstår ikke forklaringen. Kan sagtens være min fejl, men for mig lyder det som noget rod.

Og hvem udfører i øvrigt dette (velsagtens ulovlige?) forskningsprojekt? Kommunen selv ( har de eksperter til det?), eller et privat firma?

René Nielsen

”Gladsaxes algoritme udvikles af kommunens egne dataanalytikere, så det giver ikke ekstra omkostninger for kommunens borgere.”.

Det er simpelthen forkert. For iskoldt må hun enten tage disse dataanalytikere væk fra andre opgaver som de burde have lavet eller også kunne hun spare pengene ved at fyre dataanalytikere.

Jeg er sikker på at Gladsaxe kommune kan bruge disse penge til ”varme hænder”.

I det private koster en gennemsnitstime omkring DKK 550+ pr time. Det koster det bare når der medregnes sygdom, husleje, varme, vand, support, uddannelse, telefon, el, afskrivninger, IT, ferie og løn.

Og så bliver ressourcerne endda brugt på noget som man allerede har fået afslag på.

Min umiddelbare vurdering er at Gladsaxe kommune ikke må betale for dette udviklingsprojekt.

Det er en overskridelse af kommunalfuldmagten for det som Tine Vesterby Sørensen beskriver, er jo en erhvervsvirksomhed som på forventet efterbevilling opnår tilladelse til noget som kommunen allerede har fået afslag på.

Og et eller andet sted, er det vel også konkurrenceforvridende, at man for kommunale penge kan udvikle systemer som måske/måske ikke skal bruges i fremtiden.

Jeg mener at det er en oplagt sag for Statsforvaltningen (hvis man bor i Gladsaxe kommune).

Spørgsmålet er om vi bevæger os over i det erstatningspådragende (for byrådets medlemmer). For Tine Vesterby Sørensen udtaler;

»Vi er da godt klar over, at det ser sort ud nu – det skal der ikke være nogen tvivl om.«.

Kan det tolkes på anden måde end at Altså Tine Vesterby Sørensen ved at ”Gladsaxemodellen” er ulovlig og at folketingspolitikere er imod ”modellen” (og end ikke arbejder med et lovforslag)?

Måske skulle V2 spørge lidt til lovgrundlaget for Gladsaxe kommunes afholdelse af omkostninger som er kommunalfuldmagten uvedkommende?

Anne-Marie Krogsbøll

Gladsaxes algoritme udvikles af kommunens egne dataanalytikere, så det giver ikke ekstra omkostninger for kommunens borgere.”.


Det havde jeg overset, René Nielsen. tak.

det som Tine Vesterby Sørensen beskriver, er jo en erhvervsvirksomhed som på forventet efterbevilling opnår tilladelse til noget som kommunen allerede har fået afslag på.


Eller mener du, at det alligevel er et privat firma, som arbejder i kommunens regi?

"Kommunen er også i dialog med Danmarks Statistik om at bringe yderligere borger-data til udviklingsarbejdet, end dem, som kommunen selv ligger inde med."
Underligt uld i mund - "dialog"? Har man et videnskabsetisk godkendt forskningsprojekt, eller har man ikke? Hvis man har, hvad skal man så med "dialog"? Eller er det ikke et projekt, som kræver videnskabsetisk godkendelse, men et af den slags projekter, hvor man kan få adgang til Danmarks Statistisk data via en flot julekalender?

I øvrigt enig i, at det lyder meget rodet. Nærmest lidt anarkistisk. Og hvem mon har besluttet at køre videre med projektet? Kommunalbestyrelsen eller nogle lokale embedsfolk?

Christian Nobel

Hvor er det deprimerende.

Vi har en justitsminister med tilhørende ministerium, som højt og flot skider på EU lovgivningen.

Vi har et erhvervsministerium som tager meget let på tingene:
http://nyheder.tv2.dk/samfund/2018-12-20-ministeriums-egen-ekspert-dumpe...

Vi har en forvaltningschef i en kommune, som bevidst gør noget ulovligt som regeringen har underkendt.

Med lov skal land bygges - pfffff.

Jan Ferré

Jeg kan godt forstå, at Gladsaxe Kommune har lyst til at undersøge denne slags muligheder. Vi bliver konstant tudet ørerne fulde om Big Data og de fodslæbende kommuner, der ikke vil udnytte de muligheder, data giver. Det tror da Pokker, at Gladsaxe Kommune har rystet hjernekassen og forsøgt at finde et projekt, de kan bryste sig af. For hvem kan reelt have noget imod at man på et tidligt tidspunkt mander op til at støtte familier, der udviser indikationer af at ville misrøgte deres børn?

Min forståelse for de kommentarer, der er kommet her, er ligeså stor! For hvis vi lige fjerner popsmarte ord som 'sort kasse', så er der tale om at lave en samling af meget personlige informationer og at krydse dem - for så at få en liste ud med potentielle problemfamilier. Og den slags samlinger har det desværre med at blive brugt til andre formål end de er blevet samlet til - og med at blive offentliggjort ved mere eller mindre kluntede uheld.

For når man alligevel har lavet et register med opdaterede oplysninger - hvad kan Delfi så ellers sige ud fra disse oplysninger? Og måske skal der bare større computerhjerner til - så data sendes til behandling andre steder?

Lad mig understrege, at GPDR sådan set ikke stiller sig hindrende for at man kan samle disse data! Der er en lang række krav til håndteringen, som vi ikke har fået belyst om Gladsaxe Kommune overholder. Men basalt set må man også med GPDR godt opbevare 'nødvendige' data. Og i forbindelse med træning af kunstig intelligens er det altså nødvendigt med data om 'sunde' forhold/familier også. Hvis kunstig intelligens kun bliver præsenteret for billeder af aber - så vil den med garanti mene, at alle billeder viser aber.

Hvor længe historiske oplysninger så skal ligge i systemet har jeg ingen idé om. Når træningen af kunstig intelligens er afsluttet, burde disse jo ikke længere være nødvendige og skal derfor slettes. Det er jeg så ikke så sikker på, at de bliver (det kunne måske være interessant at bruge disse data til noget andet også). Men det er et spørgsmål om håndtering af data - altså et administrativt spørgsmål. Og her er jeg helt på linie med de betænkelige kommentarer!

Om dette projekt så skal have lov at overleve - tja, det har jeg ikke rigtig nogen holdning til. Som emneteksten siger, så er tanken jo meget god. Og måske er udførelsen ikke så ringe som Version 2s artikel antyder.
At det koster skattekroner bør ikke få nogen til at ryste på hånden! Det koster også skattekroner at teste en ny asfalt på vejene eller at lave en folkeskolereform. Alt sammen noget som har en forventet gavnlig virkning, men som reelt er en ukendt fremtid.

Bjarne Nielsen

For hvis vi lige fjerner popsmarte ord som 'sort kasse', så er der tale om at lave en samling af meget personlige informationer og at krydse dem - for så at få en liste ud med potentielle problemfamilier.

Problemet her er så 'sort kasse' i kombination med 'potentiel'. Hvis vi tror på det sorte i kassen, så kommer der ingen forklaring ud. Det er da opskriften på stigmastisering. For mon ikke man kan finde noget på enhver iøvrigt velfungerende familie, hvis bare man kigger grundigt nok? Og efter en flere års tur igennem sagsbehandlingsmøllen, så kan vi føje stress, skilsmisse, arbejdsløshed eller alkoholmisbrug til.

Hvor længe historiske oplysninger så skal ligge i systemet har jeg ingen idé om. Når træningen af kunstig intelligens er afsluttet, burde disse jo ikke længere være nødvendige og skal derfor slettes.

Det tror jeg også, at man tror at man kan. Men jeg har tidligere linket til forskning, hvor man kunne få det som svarer til cpr-numre ud af et system efter træning. Den "kunstige intelligens" kunne simpelthen huske mange flere detaljer i det, som den havde "set" end man skulle forvente.

Og så var der ikke engang tale om overtræning (hvad er et selvstændigt problem, specielt hvis man leder efter "sorte svaner", som man jo gør, når man leder efter udsatte familier) - opførslen optrådte tidligt, også allerede inden at træningen var fuldt afsluttet.

Man kunne tilsyneladende afbøde noget af virkningen uden at det gik alt for meget ud over forudsigelsesevnen, men det var spidsfindigt, og det krævede at man var selvstændigt opmærksom på problemstillingen. Det er i det hele taget et område, som i den grad mangler forskning ... men det sikkert heller ikke nemt at være "party pooper" på det område.

Det er på alle måder svært at tro, at det kan gøres forsvarligt.

Jesper Frimann

Lad mig understrege, at GPDR sådan set ikke stiller sig hindrende for at man kan samle disse data!

Det er jeg sku ikke helt enig i. Jeg synes at Gladsaxe Kommune bevæger sig ind i et etisk og lovmæssigt minefeldt.

Data indsamlet i skoletandplejen til det formål at kunne yde en skoletandlæge service til børnene. Er ikke indsamlet for at opspore sårbare børn.
Eller lad mig sige det på den måde, det er jeg i det mindste ikke, som forældre blevet oplyst om, når jeg har haft ungerne til skoletandlægen. Og der står ikke rigtig noget om dette i Bekendtgørelse om tandpleje.

Og jeg er rimelig sikker på, at de data der bruges i det her projekt ikke er anonymiserede, for så er de jo ubrugelige... hele ideen går jo netop ud på at identificere sårbare børn.

DET ER VIGTIGT at forstår at bare fordi du fjerner CPR nummeret så er data ikke anonymiserede. Anonymiserede betyder at du ikke kan indentificere folk ud fra data.

Desuden mener jeg at det at du siger du laver det her, vil gøre mere skade på udsatte børn, end det gør gavn. For det vil bare betyde at de foobar forældre der forsømmer deres børn, bare vil undlade helt at bruge det offentlige på nogen som helst måde.. og så ja.. gør man bare problemet større.

Og vi er slet ikke begyndt, at tale om false positives... Jeg har prøve at skulle udfylde en formular for at min den mindste skulle testes af en talepædagog. Problemet var bare at man ikke lige havde en formular til det i kommunen så jeg kunne bare udfylde en formular XX om omsorgsvigtede børn og så strege ting ud istedet. Ja dav mand økseskaft, jeg skal sku ikke ha sådan en liggende på en af mine unger.

Hele den her dataliderlighed giver bare generelt ikke mening. Især ikke når brugsscenarierne er drømt op af sælgere fra industrien og djøffere i lettere beruset tilstand på et konferencecenter et sted i provinsen.

Nej, sæt hellere en jurist, en sagsbehandler og en IT-arkitekt sammen.. så måske..

// Jesper

René Nielsen

"At det koster skattekroner bør ikke få nogen til at ryste på hånden! Det koster også skattekroner at teste en ny asfalt på vejene eller at lave en folkeskolereform. Alt sammen noget som har en forventet gavnlig virkning, men som reelt er en ukendt fremtid."

Det du skriver, er faktisk kernen i hvorfor den forsatte udvikling af "Gladssaxemodellen" formentlig er en overtrædelse af kommunal fuldmagten.

Du må som kommune ikke bruge skatteborgernes penge på noget som skatteborgerne ikke får glæde af. Længere er den historie ikke.

Det vil altid være en vurdering, men at udvikle forsat på noget som idag er klart ulovligt .... ja det siger sig selv.

Taler vi derimod om at kommunen afsøger mulighederne for optimering indenfor lovens rammer, så er sagen anderledes.

Men det kræver at Gladsaxe kommune tydelig viser at man har stoppet al snak om det som er ulovligt.

Henrik R Jørgensen

De data, vi forsøger at lægge ind i algoritmen lige nu, og som vi ikke har en tilstrækkelig mængde af, er egne data fra Gladsaxe Kommune. Det er eksisterende sager, hvor man laver en vurdering af, hvad der er et udsat barn. Og det er alle de børn, som modtager en foranstaltning efter paragraf 52 i serviceloven. Det vil sige børn, som der allerede er lavet underretninger på, og som er vurderet som udsatte.

Og så kunne man jo godt tænke sig at høre, hvilket grundlag Gladsaxe Kommune har for at igangsætte denne manøvre - altså forudsat der er tale om personhenførbare data? Der sker jo helt åbenbart en behandling af endda ret følsomme oplysninger, men det er angiveligt til et machine learning formål - så spørgsmålet er, hvor finder kommunen grundlag i lovgivningen til dette?

Jeg er ikke rigtigt sikker på, at jeg forstår det sidste i udtalelsen. Dog er jeg forholdsvist sikker på, at en behandling af personoplysninger ikke forudsætter at man ser på ("overvåger") alle data. Hvis formålet er at monitorere ud fra bestemte parametre, så vil alle borgere, hvis data behandles til dette formål, være udsat for en overvågning. Ud fra samme logik ville tv-overvågning jo heller ikke være tv-overvågning, så længe du ikke foretager dig noget kriminelt.

Men måske er det bare mig.

Louise Klint

Jeg må indrømme, at det gør mig lidt tavs, dette.
Eller forbeholden.
Tabte underkæben, da jeg læste det i morges, og det har åbenbart ikke ændret sig i dagens løb.

Jeg synes pågældende leder er så grundigt på afveje.
Dels i forhold til egen myndigheds rolle og beføjelser, og dels fordi vedkommende virker til at være så blind for dette, at jeg bliver lidt slået ud og ikke helt kan finde ud af, hvordan man skal gribe det an.
Jeg tror, der muligvis sidder mange af samme slags derude i forvaltningerne.
Folk fortabt i egen boble, som kunne trænge til at komme lidt ud blandt almindelige mennesker og få nye perspektiver på eget virke. Blive ”set” udefra. Få anderledes feedback og kritik. Få noget modspil og nogle grænser.
Det tror jeg er sundt (for os alle sammen).
Måske virkede det til at være en kamp mod vejrmøller?
Fik lyst til at skrive ”Kære Tine, jeg håber du læser med…” men jeg tror, at jeg tygger lidt på det.

Derfor vil jeg være lidt praktisk i stedet.
Og genposte linket til Gladsaxes eksperiment.
Vi havde det fremme i foråret, da modellen kom op til overfladen, og således her igen, hvis det skulle have interesse.

Gladsaxe-modellen beskrives herfra og 5 sider frem:
https://oim.dk/media/18887/forsoegsansoegninger-i-3-runde-frikommunefors...
Her gives bl.a. et overblik over registersamkøringen, samt hvilke af kommunens
databaser, der trækkes data fra til eksperimentet.
Her er også en illustration af opsporingsmodellen.

Her fremgår det at:
”Opsporingsmodellen udvikles på baggrund af resultater af statistiske analyser
af samkørte data”
+
”Derudover tillader modellen – grundet det historiske fundament af de inkluderede datakilder – et brugbart statistisk fundament til evaluering.”

Det er tilsvarende hvad artiklen siger – at Gladsaxe er ”i dialog” med
Danmarks Statistik.

Derfor vil jeg høre, om nogen ved, om kommunen – på linje med private
virksomheder – kan (har lov til at) købe de statistiske data, de mangler
til algoritmen, hos Danmarks Statistik?
Fx her:
https://www.dst.dk/da/TilSalg/skraeddersyede-loesninger

Bjarne Nielsen

Jeg tror, der muligvis sidder mange af samme slags derude i forvaltningerne.

Mere eller mindre. Jeg sad for nyligt i kloge venners lag, og kom der til at diskutere dataindsamling og anonymitet, og der var også en fra "forvaltningerne".

To ting slog mig:

  1. Hvor naiv en forståelse af anonymisering der var.
  2. At det udspringer af et oprigtigt ønske om at gøre godt.

Faktisk fornemmer jeg også en form for magtesløshed - så bliver en form for: "Det betyder jo ikke noget, det er jo anonymt - og hvad skulle vi ellers gøre?"

Jeg tror simpelthen ikke, at de forstår hvorfor vi mener, at det er problematisk. Det er ikke kun Gladsaxe. Og det er en del af forklaringen på, hvorfor jeg var så opgivende tidligere i denne debat.

Denny Christensen

Formålet formidles med gode intentioner om omsorg - hvem vil ikke helst at der ikke er nogen børn eller svage der kommer i problemer?

Problemet opstår når arbejdet fortsætter selv om det ikke er i 'rigtig produktion' for der arbejdes stadig på rigtige data og formålet er endegyldigt at presse løsningen igennem en dag, når de rigtige argumenter (eksempelvis 'Hvis vi måtte kunne vi have forhindret dette') og så glemmer at man for at yde god hjælp til enkelte træder hen over de mange.

Johannes Gregersen

Jeg gætter på, at de udvikler en model ud fra hjemlen til samkøring ud fra statistiske eller videnskabelige formål. Derfor er der ingen cpr numre i materialet, og materialet må derfor heller ikke bruges af forvaltningen til at lave foranstaltninger på.

Jeg ved godt, at der er mange herinde, der mener det er forkert, forkasteligt og den direkte vej til fortabelse af samkøre data for at blive klogere på verden, men det er nu engang en lovlig aktivitet, også efter GDPR.

Bjarne Nielsen

Derfor er der ingen cpr numre i materialet, og materialet må derfor heller ikke bruges af forvaltningen til at lave foranstaltninger på.

Hvis der ikke er cpr-nummer, hvordan får man så koblet det på kommunens data?

Hvis man kobler det på kommunens data, hvordan sikrer man så at data ikke kan genkendes? Så mange tvangsfjernelser er der vel heller ikke.

Hvis man ikke kobler det på kommunens data, hvad skal man så bruge det til?

Johannes Gregersen

Hej Anne-Marie:

Jeg kan kun besvare første af dine bullits.

Nej, det kræver ikke tilladelse fra Datatilsynet. Men det er jo underlagt tilsynets kontrol. Hjemlen er L68 (https://www.ft.dk/samling/20171/lovforslag/l68/20171_l68_som_vedtaget.htm):

*§ 10. Oplysninger som nævnt i databeskyttelsesforordningens artikel 9, stk. 1, og artikel 10 må behandles, hvis dette alene sker med henblik på at udføre statistiske eller videnskabelige undersøgelser af væsentlig samfundsmæssig betydning, og hvis behandlingen er nødvendig af hensyn til udførelsen af undersøgelserne.
*
Jeg ville blive overrasket, hvis ikke Gladsaxe Kommunes jurister har skrevet et notat om, hvad man må og ikke må på dette felt, og at man meget gerne vil holde sig inden for dette grundlag. Dummere er man vel heller ikke (uanset debattørers holdninger herinde).

Anne-Marie Krogsbøll

Hej Johannes.

Tak for svar:

Nej, det kræver ikke tilladelse fra Datatilsynet


Men det kræver vel godkendelse fra Videnskabsetisk Komité? Eller er der virkeligt frit slag? I givet fald bliver sagen da bestemt ikke bedre, og så kan man jo som borger spekulere over, hvad der mere "forskes" i rundt om i kommunerne.

Hvad var dit svar mht. "anonymt"?

I øvrigt drejer mange af kommentarerne sig i højere grad om, hvad man finder rigtigt/etisk/rimeligt - hvilket sagtens kan være, og i disse sammenhænge ofte er, noget helt andet end, hvad der står i loven. Mange af os mener jo netop, at lovene på dette felt er forkastelige.

Johannes Gregersen

"Hvis man ikke kobler det på kommunens data, hvad skal man så bruge det til?"

Jeg gætter på, at man gerne vil være skarpere på hvilke tidlige indikationer, der generelt er i børnesagerne, så man kan bruge det fremadrettet. Gør man mere end det, vil det jo kræve et andet hjemmelsgrundlag end § 10.

Jeg går her ud fra, at projektet vil tage udgangspunkt i lovgivningen og hjemmelsgrundlaget, og ikke har til hensigt at skabe en ulovlig big brother model. Men jeg kan jo tage fejl.

Anne-Marie Krogsbøll

"§ 10 Oplysninger som nævnt i databeskyttelsesforordningens artikel 9, stk. 1, og artikel 10 må behandles, hvis dette alene sker med henblik på at udføre statistiske eller videnskabelige undersøgelser af væsentlig samfundsmæssig betydning, og hvis behandlingen er nødvendig af hensyn til udførelsen af undersøgelserne.
Stk. 2. De oplysninger, der er omfattet af stk. 1, må ikke senere behandles i andet end videnskabeligt eller statistisk øjemed."

Når ministeriet har skrinlagt projektet, kan det så hævdes at være af væsentlig samfundsmæssig betydning? For mig lyder det lidt søgt.

Johannes Gregersen

Om væsentlighed:
At ministeriet ikke har ændret loven ifht samkørsel og anvendelse af data udover § 10 betyder ikke, at § 10 ikke gælder her. Jeg mener sagtens, at kommunen kan argumentere for væsentlighed på dette område.

Så vidt jeg ved, kræver det ikke godkendelse af en videnskabsetisk kommite - det er kun medicinsk forskning, der har en sådan model. Det er almindeligt datatilsyn plus DPO arbejde, der skal beskytte at reglerne følges.

Om anonymitet:
Det er ikke en diskussion, jeg vil gå ind i - forskellen på "formel anonymisering" og "reel personhenførbarhed" er stor, og den debat kommer helt sikkert til at køre mange år frem.

Det er klart, at åbner kommunen den sorte kasse med data, så vil de kunne genkende, at den familie Y med 4 børn, 7 diagnoser og 17 sager, det er nok familien Hansen, selvom cpr numre mv er fjernet. Så det skal de selvsagt ikke gøre - de skal kigge efter mønstre og blive klogere på tidlige indikationer, som de så fremadrettet kan reagere på i andre sager.

Om lovlighed vs etik:
Jeg synes det er rigtigt fint, at mange gerne vil diskutere de etiske problemer i det her forum. Privacy er helt uomtvisteligt et af de vigtigste emner overhovedet i disse år, og vi kommer til at snakke om det i mange år endnu, selvom mange tilsyneladende bare stikker hovedet i busken og lader private firmaer tracke sig i hoved og røv.

Men problemet er, at debattører herinde alt for ofte påstår, at noget er ulovligt, fordi det krydser debattørens etiske grænser. Eller at nogen har svært ved at tro, at andre kan have en anden afvejning eller en anden etisk grænse, uden at være korrupt, have en skjult hensigt etc. Ting, debattør A finder uetisk, kan godt være lovligt - og måske også etisk ud fra andre synspunkter.

Jakob Skov

Den personlige etiske anskuelse hedder vist moral, men det er hvad det er. Moral er etik i effekt og etik er rammer for moral. At ordet reelt burde være retsfølelse i stedet for lov og at det er stødende når noget går imod det, er hvad det er. Vi forstår trods alt for det meste meningen. :)

Det forsøg man vil lave er betydeligt mere reelt at hjemle ved forskning end under frikommune-ordningen. Udvalgte borgere i Gladsaxe bør ikke lide under flere besøg mens man er i gang med at "teste" en ikke færdigudviklet model.

Er stadig ikke sikker på at man bør lave modellen, men trods alt skal utilitaristerne kunne dokumentere fordele og ulemper for at man kan diskutere med de hardcore konsekvens-etikere der skamler den på tinge.
Luftperspektivet er stadig at man laver et point-system da man svært kan have et objektivt system uden tal. Læg dertil at det er en type profilering af "tabere" og dannelse af en liste over "tabere" der ellers ikke ville eksistere (Et tabu eksisterer. Det er ikke sådan man ser på det fra kommunens side, men hvis borgeren oplever det som sådan er vi tilbage ved retsfølelsen/"rummeligheden"/hensynet).

Anne-Marie Krogsbøll

Tak for svar, Johannes Gregersen.

At ministeriet ikke har ændret loven ifht samkørsel og anvendelse af data udover § 10 betyder ikke, at § 10 ikke gælder her. Jeg mener sagtens, at kommunen kan argumentere for væsentlighed på dette område.


Det mener jeg så absolut ikke, og det ville da nok være en sag værd at undersøge det. Ministeriet har direkte udtalt, at den slags er det offentlige ikke modent til endnu - det kunne jo absolut pege på, at det netop ikke er i samfundets interesse på nuværende tidspunkt. Og at du formulerer dig, som du gør i denne sag ("jeg mener sagtens....") forstærker min ubehagelige føelse af, at folk med ansvar for den slags i stat og kommmuner vil vedblive med at finde/opfinde smuthuller igennem lovens hensigter. Det er bestemt ikke den slags udtalelser, som fremmer den så berømte "tillid", for hvis du har ret - hvad kan man så ikke samkøre som kommune, hvis man nu får lyst til det? Man kan jo altid påstå, at man mener, at det er dækket af denne paragraf?

Det ødelægger tilliden til det offentlige system, at man forsøger at finde smutveje på denne måde. Jeg håber ikke, at det er lovligt - kan du oplyse mig om, om jeg som borger kan anmelde Gladsaxe Kommune, så vi kan få det undersøgt, og komme ud over "Jeg mener sagtens"-niveauet?

Om lovlighed vs etik:
Jeg synes det er rigtigt fint, at mange gerne vil diskutere de etiske problemer i det her forum. Privacy er helt uomtvisteligt et af de vigtigste emner overhovedet i disse år, og vi kommer til at snakke om det i mange år endnu, selvom mange tilsyneladende bare stikker hovedet i busken og lader private firmaer tracke sig i hoved og røv.


Der er vi sørme enige...

Men problemet er, at debattører herinde alt for ofte påstår, at noget er ulovligt, fordi det krydser debattørens etiske grænser. Eller at nogen har svært ved at tro, at andre kan have en anden afvejning eller en anden etisk grænse, uden at være korrupt, have en skjult hensigt etc. Ting, debattør A finder uetisk, kan godt være lovligt - og måske også etisk ud fra andre synspunkter


Nu er det jo altså kompliceret lovgivning, så det er vel forventeligt, at der kan være uenighed om, hvad der måske/måske ikke er lovligt. Ganske som vi vurderer Gladsaxe-eksperimentet forskellig mht. lovlighed. Set fra mit synspunkt er det at gøre grin med borgerne, hvis loven kan tolkes som du siger - men det er da muligt, at du har ret. Det er i så fald deprimerende, for så kan loven ikke bruges til ret meget i praksis, hvis den ikke kan beskytte os mod den slags.

Mht. afvejning af etik så er det jo hele meningen med at debattere, at man fremfører hver sine synspunkter - som så ganske rigtigt ikke altid er overensstemmende. Og du siger jo præcist det, jeg sagde tidligere - at noget er lovligt, er ikke det samme, som at det er etisk.

Det er f.eks. meget svært at finde det etisk forsvarlige i at give private firmaer lov til i et eller andet omfang at skaffe sig og samkøre sundhedsdata uden at bede om lov , f.eks. indenfor medicinalindustrien, med det formål at tjene formuer på det - det er jo ikke desto mindre i et vist omfang jo lovligt.

Kenn Nielsen

Luftperspektivet er stadig at man laver et point-system da man svært kan have et objektivt system uden tal. Læg dertil at det er en type profilering af "tabere" og dannelse af en liste over "tabere" der ellers ikke ville eksistere (Et tabu eksisterer. Det er ikke sådan man ser på det fra kommunens side, men hvis borgeren oplever det som sådan er vi tilbage ved retsfølelsen/"rummeligheden"/hensynet).


Det vil måske være værre end dét..
Hvis nu der viser sig at være en overrepresentation af een gruppe, så vil (selvudråbte) talspersoner for denne gruppe påberåbe sig stigmatisering, og et - måske - retvisende system, skal så have "justeret den sorte kasse" så systemet ikke "diskriminerer".
I så tilfælde kan man - efter en sådan "justering" - kunne påstå at systemet er programmeret til kun at gå efter udvalgte grupper.

Og hvor vil retsfølelsen/"rummeligheden"/hensynet ende, hvis vi kunne få en mistanke om at man med vilje justerede den sorte kasse, fordi man vil følge en eller anden international hensigtserklæring ,om ikke at (ud)stille bestemte grupper, med ikke-positiv omtale ?

K

Log ind eller Opret konto for at kommentere