Siri-kommissionen: ‘Personal data store’ er vejen frem til trygge borgerdata
Den teknologiske tænketank Siri-kommissionen, der ser på Danmarks forhold til ny teknologi, er kommet med en rapport om fremtidsmuligheder for anvendelsen af kunstig intelligens og machine learning.
Rapporten er udarbejdet af Pernille Tranberg og Gry Hasselbalch fra en anden tænketank, nemlig DataEthics.eu.
I rapporten anbefaler kommissionen etablering af en ‘personal data store.’
Det kunne være en slags udvidet ‘min side’ i offentlig digital borgerbehandling eller en personlig cloud, hvor borgeren eller forbrugeren har kontrol over sine data. Hun kan selv tilføje flere data for at få flere tjenester med eller slette data – også hvis borgeren eksempelvis har haft en kræftdiagnose, men er erklæret rask og ønsker at få det slettet.
Det skal også være muligt at opdatere data og at downloade data, som man kan tage med sig.
I rapporten introduceres fremtidsscenarier inden for sundheds-, transport- og det finansielle område, som er de tre områder, Siri-kommissionen har haft særligt fokus på. Rapporten peger på de etiske implikationer og dilemmaer for hvert fokusområde, men også tværgående principper og ikke mindst anbefalinger til handling. Rapporten på 17 sider opsummerer sit indhold således: Vi bør sikre, at vi som borgere er bedst muligt rustede til at leve i verden med konstant påvirkning af AI, ikke udvikle AI med det formål at erstatte mennesket, men sikre, at AI altid komplementerer mennesket og ‘kun’ er en cobot, altså en robot, der samarbejder med mennesket, sikre, at mennesket altid har det sidste ord, og at et menneske altid ved, om han/hun taler med en maskine eller med et menneske, altid tænke privatlivsrisici og dataetiske implikationer for individet ind i design og udvikling fra begyndelsen, sikre danskerne retten til anonymitet – som man har ret til en hemmelig adresse, udvikle en standard for, hvordan man forklarer en algoritme, udvikle egne dataetiske principper, der går længere end datalovgivningens krav, stille krav til, at der målrettet arbejdes for at mindske problematiske bias i data, tænke lighed ind i udviklingen og designet af AI-tjenester og systemer, således at også ressourcesvage får gavn af udviklingen. Siri-kommissionen blev skabt i sommeren 2016 af Ida Auken, MF for Radikale Venstre, og Thomas Damkjær Petersen, formand for IDA. Formålet er at skabe debat om kunstig intelligens, og den betydning den har for det danske samfund, både i forhold til vækst, arbejdsmarked, kompetencekrav og til etiske udfordringer. Rapporten kan efter udgivelse findes her.Siri-kommissionen: AI-scenarier. Etiske overvejelser og anbefalinger
Forslaget skal også være med til at sikre danskerne retten til anonymitet. Borgerens data – herunder DNA-data, som bliver mere og mere værd – skal opbevares under stærk kryptering, og den eneste adgang skal kunne foregå med en dommerkendelse.
Anonymitet medfører også, at vi har ret til at kommunikere og handle anonymt, skrives der i rapporten.
IDA-boss: Giv os ret til at bestemme over egne data
»Det giver os som individer ret til at bestemme over vores egne data,« uddyber Thomas Damkjær Petersen, formand for IDA og medstifter af Siri.
»Det tror jeg er helt afgørende for, at vi kan have tillid til, at teknologien bliver brugt fornuftigt fremadrettet. Så vi selv kan afgrænse, hvem der bruger de data, jeg har i det offentlige, og vi er selv herre over det.«
Det skulle betyde, at man selv kan tage stilling til, hvem man vil give sine data til.
Hvis man gerne vil give sine data til kræftforskning sammen med data fra apps, der kan vise, hvor man har været, og hvad man har spist, skal det ske, uden at andre får adgang.
»Jeg tror, at det er vigtigt, at man kan sige, at i nogle sammenhænge vil jeg give alle data, mens man måske ikke vil dele alt med sit forsikringsselskab.«
Forskere vil have individuelle data
Men på den anden side er der også forskere, der hævder, at det er svært at lave robust forskning uden at komme ned på individniveau.
Det er Thomas Damkjær Petersen ikke helt enig i.
»Det har man jo ikke i eksempelvis USA, og den forskning, der kommer derfra, sætter vi jo ikke de store spørgsmålstegn ved. Enhver forsker skal sige: Man er nødt til at være sikker på sin forskning. Det synes jeg er korrekt. Men jeg tror, at de forskere, som ikke har samme mængde valide data, som vi har i Danmark, har metoder til at sikre sig, at data er valide, også i andre sammenhænge.«
Som forsker må man også have for øje, at nogle borgere måske begynder at afgive ‘falske’ data om sig selv.
»Så opstår der ikke sikker forskning, hvis vi alle begynder at lave vores egne udgaver af, hvor perfekte vi er, hvor sundt vi spiser osv. Når forskere kigger på, hvad der ligger i vores skraldespand, så er det tit noget andet end det, vi siger.«
Det er vigtigt, at borgerne har tillid til, at det offentlige benytter data på en rimelig facon.
Drop uetisk forskning
Et andet argument om personhenførbare sundhedsdata, som forskeren Søren Brunak fra Københavns Universitet tidligere har fremført over for Version2, går på, at borgere vil benytte deres sundhedsdata til at forhandle med forsikringsselskaber, i en fremtid hvor sundhedssystemet måske er mere privatiseret end i dag.
Den køber Thomas Damkjær Petersen ikke.
»Der er forskel på at forsikre sig i forhold til sin bilkørsel og at snakke om sit helbred. Der har vi jo en solidarisk løsning på vores helbred i dag, hvor vi alle indbetaler skat til et sundhedsvæsen, som giver de ydelser, vi har behov for. Den der forsikringstankegang kan man ikke individualisere.«
Der er ikke nogen, der får et godt liv af at få at vide, at de skal dø af kræft om 22 måneder med 80 procents sandsynlighed.
»Vi ved alle godt, at vi betaler til dem, som har det vanskeligt, og det tror jeg, at vi alle sammen får en god fornemmelse af. Vi siger jo ikke, at vi ikke vil behandle rygere som har fået lungekræft,« siger Thomas Damkjær Petersen og fortsætter:
»Alfa og omega er tilliden til, at man kan forblive anonym. Jeg vil godt udlevere mine data til en forsker, men det skal være med sikkerhed for, at det bliver anonymiseret.«
Det er også tilfældet i forbindelse med for eksempel folkeskolens trivlselsmåling.
»Det er i den grad uetisk, hvis man laver forskning, hvor man bagefter kan trille baglæns og sige: 'Det var Søren, fra 3. klasse, der sagde det her'. Det holder ikke. Så skal man lade være med at forske.«

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.