Siri-kommissionen: ‘Personal data store’ er vejen frem til trygge borgerdata

11. september 2018 kl. 23:599
Siri-kommissionen: ‘Personal data store’ er vejen frem til trygge borgerdata
Illustration: Ida.dk.
Borgerne skal rustes til at leve i verden med konstant påvirkning af AI. En personlig databank kan være en del af løsningen.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Den teknologiske tænketank Siri-kommissionen, der ser på Danmarks forhold til ny teknologi, er kommet med en rapport om fremtidsmuligheder for anvendelsen af kunstig intelligens og machine learning.

Rapporten er udarbejdet af Pernille Tranberg og Gry Hasselbalch fra en anden tænketank, nemlig DataEthics.eu.

I rapporten anbefaler kommissionen etablering af en ‘personal data store.’

Det kunne være en slags udvidet ‘min side’ i offentlig digital borgerbehandling eller en personlig cloud, hvor borgeren eller forbrugeren har kontrol over sine data. Hun kan selv tilføje flere data for at få flere tjenester med eller slette data – også hvis borgeren eksempelvis har haft en kræftdiagnose, men er erklæret rask og ønsker at få det slettet.

Artiklen fortsætter efter annoncen

Det skal også være muligt at opdatere data og at downloade data, som man kan tage med sig.

Siri-kommissionen: AI-scenarier. Etiske overvejelser og anbefalinger

I rapporten introduceres fremtidsscenarier inden for sundheds-, transport- og det finansielle område, som er de tre områder, Siri-kommissionen har haft særligt fokus på. Rapporten peger på de etiske implikationer og dilemmaer for hvert fokusområde, men også tværgående principper og ikke mindst anbefalinger til handling.

Rapporten på 17 sider opsummerer sit indhold således:

  • Vi bør sikre, at vi som borgere er bedst muligt rustede til at leve i verden med konstant påvirkning af AI,

  • ikke udvikle AI med det formål at erstatte mennesket, men sikre, at AI altid komplementerer mennesket og ‘kun’ er en cobot, altså en robot, der samarbejder med mennesket,

  • sikre, at mennesket altid har det sidste ord, og at et menneske altid ved, om han/hun taler med en maskine eller med et menneske,

  • altid tænke privatlivsrisici og dataetiske implikationer for individet ind i design og udvikling fra begyndelsen,

  • sikre danskerne retten til anonymitet – som man har ret til en hemmelig adresse,

  • udvikle en standard for, hvordan man forklarer en algoritme,

  • udvikle egne dataetiske principper, der går længere end datalovgivningens krav,

  • stille krav til, at der målrettet arbejdes for at mindske problematiske bias i data,

  • tænke lighed ind i udviklingen og designet af AI-tjenester og systemer, således at også ressourcesvage får gavn af udviklingen.

Siri-kommissionen blev skabt i sommeren 2016 af Ida Auken, MF for Radikale Venstre, og Thomas Damkjær Petersen, formand for IDA. Formålet er at skabe debat om kunstig intelligens, og den betydning den har for det danske samfund, både i forhold til vækst, arbejdsmarked, kompetencekrav og til etiske udfordringer.

Rapporten kan efter udgivelse findes her.

Forslaget skal også være med til at sikre danskerne retten til anonymitet. Borgerens data – herunder DNA-data, som bliver mere og mere værd – skal opbevares under stærk kryptering, og den eneste adgang skal kunne foregå med en dommerkendelse.

Anonymitet medfører også, at vi har ret til at kommunikere og handle anonymt, skrives der i rapporten.

IDA-boss: Giv os ret til at bestemme over egne data

»Det giver os som individer ret til at bestemme over vores egne data,« uddyber Thomas Damkjær Petersen, formand for IDA og medstifter af Siri.

Artiklen fortsætter efter annoncen

»Det tror jeg er helt afgørende for, at vi kan have tillid til, at teknologien bliver brugt fornuftigt fremadrettet. Så vi selv kan afgrænse, hvem der bruger de data, jeg har i det offentlige, og vi er selv herre over det.«

Det skulle betyde, at man selv kan tage stilling til, hvem man vil give sine data til.

Hvis man gerne vil give sine data til kræftforskning sammen med data fra apps, der kan vise, hvor man har været, og hvad man har spist, skal det ske, uden at andre får adgang.

»Jeg tror, at det er vigtigt, at man kan sige, at i nogle sammenhænge vil jeg give alle data, mens man måske ikke vil dele alt med sit forsikringsselskab.«

Forskere vil have individuelle data

Men på den anden side er der også forskere, der hævder, at det er svært at lave robust forskning uden at komme ned på individniveau.

Det er Thomas Damkjær Petersen ikke helt enig i.

»Det har man jo ikke i eksempelvis USA, og den forskning, der kommer derfra, sætter vi jo ikke de store spørgsmålstegn ved. Enhver forsker skal sige: Man er nødt til at være sikker på sin forskning. Det synes jeg er korrekt. Men jeg tror, at de forskere, som ikke har samme mængde valide data, som vi har i Danmark, har metoder til at sikre sig, at data er valide, også i andre sammenhænge.«

Som forsker må man også have for øje, at nogle borgere måske begynder at afgive ‘falske’ data om sig selv.

»Så opstår der ikke sikker forskning, hvis vi alle begynder at lave vores egne udgaver af, hvor perfekte vi er, hvor sundt vi spiser osv. Når forskere kigger på, hvad der ligger i vores skraldespand, så er det tit noget andet end det, vi siger.«

Artiklen fortsætter efter annoncen

Det er vigtigt, at borgerne har tillid til, at det offentlige benytter data på en rimelig facon.

Drop uetisk forskning

Et andet argument om personhenførbare sundhedsdata, som forskeren Søren Brunak fra Københavns Universitet tidligere har fremført over for Version2, går på, at borgere vil benytte deres sundhedsdata til at forhandle med forsikringsselskaber, i en fremtid hvor sundhedssystemet måske er mere privatiseret end i dag.

Den køber Thomas Damkjær Petersen ikke.

»Der er forskel på at forsikre sig i forhold til sin bilkørsel og at snakke om sit helbred. Der har vi jo en solidarisk løsning på vores helbred i dag, hvor vi alle indbetaler skat til et sundhedsvæsen, som giver de ydelser, vi har behov for. Den der forsikringstankegang kan man ikke individualisere.«

Der er ikke nogen, der får et godt liv af at få at vide, at de skal dø af kræft om 22 måneder med 80 procents sandsynlighed.

»Vi ved alle godt, at vi betaler til dem, som har det vanskeligt, og det tror jeg, at vi alle sammen får en god fornemmelse af. Vi siger jo ikke, at vi ikke vil behandle rygere som har fået lungekræft,« siger Thomas Damkjær Petersen og fortsætter:

»Alfa og omega er tilliden til, at man kan forblive anonym. Jeg vil godt udlevere mine data til en forsker, men det skal være med sikkerhed for, at det bliver anonymiseret.«

Det er også tilfældet i forbindelse med for eksempel folkeskolens trivlselsmåling.

»Det er i den grad uetisk, hvis man laver forskning, hvor man bagefter kan trille baglæns og sige: 'Det var Søren, fra 3. klasse, der sagde det her'. Det holder ikke. Så skal man lade være med at forske.«

9 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
9
13. september 2018 kl. 10:14

Personlig synes jeg det er synd, at man ikke lavede en mere bred faglig funderet gruppe. Når jeg læser rapporten, så ville det have været en rigtig god ide, at man f.eks. havde haft nogle IT-fagfolk, samt f.eks. nogen med GDPR Juridisk baggrund med i gruppen. For der er IMHO nogle steder, hvor det bærer præg af en faglig ensidighed og mangel på dybere IT og Juridisk faglig indsigt.

Et godt eksempel er f.eks. anbefalingerne, hvor man bliver meget specifik mht. til anbefalinger, som endda er af 'teknisk natur'.

Her skriver man f.eks. om, at man skal udvikle en standard for at kunne forklare algoritmer, når de f.eks. bruges til at træffe automatiske afgørelser (f.eks. af en AI) f.eks. i forbindelse med offentlige ydelser. Det er jo meget godt.. men det hjælper jo ikke at man kan vise på en hjemmeside til gamle fru madsen, at du kan ikke få tillægspension fordi 'den' er mere blå end rød. Her burde man måske hellere fokusere på, at man i al offentlige automatiske beslutninger fokuserede på at leve op til GDPR artikel 22, og altid gjorde det muligt ved system design, at folk kan få lavet en 'afgørelse lavet af et menneske' og få specificeret hvad det så betyder.

Altså sådan at hvis Gamle fru madsen ikke forstod, hvorfor hun ikke kunne få tillægspension, kunne hun tage sin fastnet telefon, og ringe til rette offentlige myndighed og få tingene forklaret og prøvet af en rigtig person.

Som andre også har skrevet oven for, så fokuseres der f.eks. på Personal Data Stores. Jeg har også svært ved at se at det løser de udfordringer vi står over for. Jeg kunne forudse et nyt 'offentligt system' med samme svagheder som f.eks. NemID. Et system som hvis man 'lagde det ned' ville lamme Danmark.

Så ja der er gode etiske tanker ... men jeg mangler de andre væsentlige faglige input, som kunne have gjort det her til noget brugbart.

// Jesper

8
12. september 2018 kl. 21:25

... for ud fra beskrivelsen i rapporten lyder det som en udvidet e-boks, som jo ikke er din personlige mail, men dit dueslag hos staten.

Princippet med personlige datastores er dog fint nok og en forudsætning for at vi som personer kan kommunikere direkte med de virksomheder, vi vil interagere med udenom fælles fordyrende og data-uetiske platforme.

Om man vil hoste data selv eller vælge nogen, man stoler på og kan holde ansvarlig, må være op til den enkelte at vurdere ligesom det er op til enhver om man selv vil opbevare sine penge eller sætte dem i banken.

6
12. september 2018 kl. 17:34

Nej nej, det siger jeg heller ikke.

Det var en kommentar til indvendingerne om, at det er nødvendigt for forskere at have adgang til forsøgspersoners fulde identitet. Det er det ikke.

4
12. september 2018 kl. 15:46

Jeg må indrømme, at jeg heller ikke er så sikker som Thomas Damkjær Petersen på, at vi ikke også vil blive afkrævet vore data i forskellige sammenhænge, hvor vi egentligt ikke har lyst til at afgive dem - eks. forsikringssammenhæng.

3
12. september 2018 kl. 15:30

Jeg synes umiddelbart det lyder rigtig godt! Jeg ville ønske det blev til virkelighed.

Men, men… Som Anne-Marie Krogsbøll er inde på, har jeg også mine tvivl og bange anelser. Jeg er fx ikke så vild med den totale centralisering af data.

Emneskift: Mht. oplysninger til forskere på individniveau: Som Thomas Damkjær Petersen siger, er det, i forskningen, ikke nødvendigt med personhenførbare sundhedsdata på individniveau. Forskeren behøver ikke at vide at det specifikt er Anders Andersen, der indgår i undersøgelsen, men blot: Mand, alder, højde, vægt, etc. med relevante match i forhold til den pågældende forskning.

Personhenførbare sundhedsdata på individniveau er værdifulde i forhold til: Registersamkøringog for industrien i forhold til markedsføring + rekruttering til medicinske forsøg.

Så er det nemt, for medicinalvirksomhederne, at få kontakt til målgruppen, når alle data er sammenkædet via cpr, navn og adresse. Ligesom man vil kunne ”segmentere” patienter langt mere præcist til medicinske forsøg. Når man kan registersammenkøre, er det således muligt, på forhånd, at inddele patientgruppen, man ønsker skal deltage i forsøget, langt mere specifikt, hvilket har indflydelse på forsøgets resultat.

En af årsagerne til, at Danmark er særligt attraktiv for medicinalindustrien. Fordi vi har denne entydige identifikation (cpr) og mulighed for sammenkædning af data, samt ikke mindst nogle af verdens bedste registre/databaser.

2
12. september 2018 kl. 15:07

Jeg har ikke brug for at give mine personlige oplysninger til endnu en mellemmand, der kan sælge i noget de siger er "anonymiseret".

Det er ikke en Personal Data Store for mig, medmindre jeg kører det på min egen server.

1
12. september 2018 kl. 07:58

.... men jeg har mistet troen på, at data kan styres på denne måde. Efter i et par år at have forsøgt at få indsigt i datas veje i forskningsprojekter, SP o.l., er min konklusion, at enten kan det ikke lade sig gøre at holde styr på, eller også er der nogen, der helt bevidst sørger for at mørklægge datatrafikken i samfundet.

Når først data er givet videre til nogen som helst, er der ikke mere styr på dem. Hullerne i lovgivningen er for store, viljen til at holde styr er for lille. Forskere deler med andre forskere - databehandlere deler med andre databehandlere - myndigheder deler med andre myndigheder osv. osv. Og alle disse aktører deler med hinanden. Og sådan er lovgivningen - og der er stort set ingen kontrol.

Udviklingen går den forkerte vej. Morgenens indslag på TV2 News handler om, at regeringens flagskib, medicinalindustrien, lidt er ved at miste vind i sejlene, hvilket er et problem for regeringens vækstplaner. Og Ellen Trane Nørby er allerede ude med løsningen: https://ugeskriftet.dk/nyhed/sundhedsministeren-pa-nogle-omrader-er-sundhedsloven-rigid

De kommer til - via ministeriel beføjelse, under radaren, på skjulte møder med industrien - at underminere de sidste rester af retten til privatliv - for det har industrien brug for.

Så længe der er sat så mange kattelemme, undtagelser og ministerielle beføjelser ind i de paragraffer, som skulle beskytte vores menneskeret til at have et privatliv, som hverken skal bruges af magthavere til at klamre sig til magten, eller af pengemænd til at få endnu flere penge, så længe er vi hjælpeløse datamalkekøer, udleverede til disse - i mine øjne - dataforbrydere/datakvotekonger/dataslaveejere.

Vi kan lige så godt se det i øjnene - på nuværende tidspunkt er både borgere og sundhedsvæsen i regeringens og andre magtpolitikeres øjne til for erhvervslivets - og i særlig grad medicinalindustriens skyld. Det burde være omvendt.

Selv om der er sympatiske tanker i SIRI-kommissionens udspil, så frygter jeg, at det bagvedliggende motiv fortsat er at finde en måde at udnytte privatlivet på. En måde at komme uden om modstanden mod tab af privatliv, og gøre tabet mere "spiseligt". Så længe man ikke får styr på den bagvedliggende lovgivning, som gør det umuligt at holde styr på data, når først man har givet dem fra sig, vil det være en falsk tryghed.

Den eneste vej frem, hvis vi vil redde en bid privatliv og selvbestemmelse, er at undlade den galopperende dataindsamling - som vi jo ikke kan få lov at sige nej til - heller ikke i følge SIRI-forslaget. Eller har jeg bare overset den del af det?