Tænketank: Forudsigelser med persondata bør stoppe før individet

Illustration: PathDoc/Bigstock
Data om personer kan være med til at udvikle samfundet. Men som det generelt er med forudsigelser, skal vi være meget varsomme med dem. Især når det drejer sig om at forudsige et menneskes udvikling og fremtidige beslutninger.

BLOG. Når politiet bruger dataanalyse til at forudsige, hvor der er størst sandsynlighed for uro i København og omegn på lørdag, så kan det gøres dataetisk. I hvert fald hvis det kun drejer sig om finde mønstre i områder baseret på fuldt ud anonymiserede data. Ikke om at finde ud af hvem blandt individer, der vil lave ballade på lørdag.

Hvis Socialministeriet bruger data til at finde ud af, hvad det er for typiske hændelser, der gør, at nogle danskere ender på offentlig forsørgelse, kan det være dataetisk forsvarligt, hvis det udelukkende drejer sig om grupper af danskere, og ikke om hvilke konkrete identificerbare personer, der er i risiko for at komme på offentlig forsørgelse.

Hvis Erhvervsstyrelsens ideer om at bremse mistænkelige personer allerede når en virksomhed registreres bliver til virkelighed, så kan det formentlig ske dataetisk ansvarligt.

Det kan være tilfældet, hvis Erhvervsstyrelsen bruger individets skatteoplysninger og offentligt tilgængelige økonomiske data sammenholdt med eksempelvis oplysninger om økonomisk kriminalitet og skattesvig.

Med andre ord; er der en objektiv begrundet mistanke, så kan der være et friere rum til brug af persondata og automatiserede algoritmer – også på individ niveau.

Vi lever i en tidsalder, hvor data er og bliver stadig mere værdifuldt – både økonomisk og menneskeligt. Der er masser af gode måder at bruge data konstruktivt til at øge kvalitet, service og velfærd, men så snart persondata involveres, skal vi træde varsomt.

Persondata er ligesom andre data uvurderlige at bruge til at udvikle vores samfund og forretninger på, men der bør være klare grænser for, hvor langt vi vil gå i forhold til at skabe indsigt i borgere og forbrugeres privatliv og forhindre dem i selv at bestemme, hvordan de vil agere.

EU’s persondataforordning, GDPR, har sat nye klare retningslinjer for brug af personlige oplysninger, hvor sigtet er beskyttelsen af borgeren og forbrugeren. GDPR understreger således, at den enkelte har ret til kontrol med sine persondata.

Et andet grundlæggende princip i forordningen er minimering af risikoen for det enkelte menneske ved den persondatabehandling, som finder sted. Er der fx knyttet en risiko for diskrimination eller identitetstyveri til persondatabehandlingen.

Det er helt afgørende standarder for privatlivs- og persondatabeskyttelse i en digital tidsalder, som den danske regering desværre modarbejder på en række fundamentale områder.

Men én ting er hvad der er lovligt rigtigt eller forkert. En anden ting er, hvor langt vil vi egentlig gå, også selv om det er lovligt.

Er det virkelig sådan, at målet til enhver tid helliger midlet, at samfundet eller virksomhedens interesse i effektivisering og optimering per automatik har prioritet fremfor borgeren og forbrugerens interesse – uanset at man tilsidesætter demokratiske grundprincipper og dataetiske værdier?

Tendensen til blindt at tro på, at kvantitative dataforudsigelser kan løse alle samfundets problemer og derfor også trumfer alt er en problematisk udvikling.

Til, eksempel kan nævnes sagen fra Gladsaxe Kommune, der har testet brugen af data til at forudsige sociale problemer i børnefamilier helt ned på individniveau.

For udvikler vi et system bygget på forudsigelser på individniveau er vejen meget kort til kontrolsamfund, hvor man f.eks. kan blive arresteret på baggrund af sine mulige ulovlige handlinger i fremtiden som i filmen Minority Report. Bare for en sikkerheds skyld.

Det lyder som science fiction. Men det er det ikke. Udviklingen er godt i gang andre steder i verden.

Individuel data prædiktion

I USA bruges individuel data prædiktion af private virksomheder til at forudse, hvilke kunder der bliver gravide – også før deres kunder selv ved det (Target-sagen fra 2012 beskrevet først af New York Times How Companies Learn Your Secrets).

Den amerikanske stat bruger persondata til at forudsige, hvor stor risikoen er for, at en indsat, der skal prøveløslades, begår kriminalitet indenfor de 12 måneder efter løsladelsen. Og politiet i Chicago kører en algoritme, der udvikler en heat liste over individer, der muligvis ender som kriminelle.

Politiet hævder, at det sænker kriminaliteten, uden at have tilstrækkelig dokumentation.

Før vi kaster os ud i lignende aktiviteter her i Danmark, må vi som samfund stille os selv to grundlæggende spørgsmål:

Er de data, som algoritmen baserer sig på, sande, neutrale, opdaterede og relevante?

Og lige så vigtigt: Er det sådan et forudsigelsessamfund, vi ønsker at opbygge?

Den amerikanske forskningsinstitution Data Society har for nylig udgivet foredrag og promoveret ny forskning af Virginia Eubanks. I hendes bog ‘Automating Inequality’ beskriver hun flere eksempler på, hvordan profilering og prædiktion straffer de svageste og fattigste.

Den viden, som amerikanerne allerede har fremlagt, bør danske politikere sætte sig grundigt ind i, allerede FØR de bliver forført af digitaliseringens muligheder. Og det må aldrig overlades til embedsfolk at træffe så grundlæggende beslutninger som prædiktion er.

Tendensen synes desværre at gå i den modsatte retning.

Vi har set Horsens Kommune, der på en Etisk Råds konference i efteråret 2017 luftede vilde ideer om, hvordan projekt Tværspor kunne udvikle sig til, at man kunne bruge data til at forudse, hvem der ville ende på kontanthjælp og dagpenge.

Hvor er den demokratiske kontrol af så vidtgående brug af persondata, herunder de dataetiske og demokratiske overvejelser, som et sådan embedsmandsudtænkt forslag skal udløse?

Det absolut sværeste ved data prædiktion er, at vi taler om sandsynlighedsberegning, som uanset supercomputere og regnekraft er alt for usikkert et grundlag til at sætte menneskelige skæbner på spil. Det er samtidig uansvarligt at basere nutidens reaktioner og sanktioner på, hvad der muligvis kan ske i fremtiden.

Vi bør som samfund sætte grænser for forudsigelser på grundlag af individers persondata indsamlet til helt andre formål. Det er kan være orden, når de er baseret på mønstre, og når der er fuld gennemsigtighed omkring behandlingen.

Det kan også være i orden, hvis der er uafhængig dokumentation for at persondata vitterligt er anonymiseret. Og det kan være i orden, når det gælder data om vejr, trafik, produkt- og logistikdata, som ikke indeholder persondata.

Endelig skal man gøre sig klart, at dataetisk ansvarlig brug af persondata til forudsigelser koster penge, som Dana Boyd, stifter af Data Society har peget på.

Det koster at implementere, vedligeholde, auditere og designe til at servicere mennesker. Og det koster at uddanne brugerne af systemerne, så det sker dataetisk ansvarligt. Men det er en pris, som et demokrati skal være villig til at betale, især et så værdibaseret og beskyttende samfund som det danske.

Et dataetisk grundlag

Vi står midt i udviklingen. Prædiktive algoritmer og systemer er overalt i de digitale systemer, der i dag udgør en stor del af vores samfund. Men det er en udvikling, vi tror kan styres baseret på nogle grundlæggende dataetiske værdier.

Vi ser teknologierne som en integreret del af den støtte, omsorg og velfærdsydelser, der kendetegner det danske samfund. Teknologierne understøtter mennesket, ikke omvendt. Derfor handler dataetik om at innovere, skabe løsninger, teknologier og dataprocesser med menneskets behov i centrum.

Vi bør derfor stille en række fundamentale dataetiske spørgsmål til de systemer, vi er i gang med at udvikle i samfundet lige nu og her. For de er grundlaget for vores fremtidige samfund.

Vi kan f.eks. stille spørgsmål om, hvem der har gavn af den prædiktive databehandling på individniveau? Er det enkelte menneskes behov og rettigheder tænkt ind her? Vi bør altid spørge, hvem der har kontrol over den data, som prædiktionen bygger på.

Er der gennemsigtighed i dataprocesserne? Forstår mennesker, hvad der sker med deres data? Kan systemet udbedres og data slettes? Og kan dataprocesserne tåle at blive auditeret af en uafhængig tredjepart?

Disse og mange andre dataetiske spørgsmål synes vi mangler i den offentlige debat om datasystemerne i det danske samfund. Vores holdning er, at de skal stilles, oplyses, undersøges og tages stilling til.

Det er helt afgørende for udviklingen af det danske samfund, at det sker med respekt for demokratiske principper og frihedsrettigheder.

Vi bør bygge bæredygtige systemer, der ikke bare håndterer risici lige nu og her, men kan bære vores menneskelige værdier ind i fremtiden. Udviklingen går ekstremt hurtigt, så vi har travlt, hvis ikke teknologien skal komme før mennesket.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (4)
ove kjær kristensen

The Guardian. februar 2018.

The General Data Protection Regulation (GDPR), which comes into effect in May, contains a raft of measures intended to strengthen data protection for Europeans.But some of the new rights and responsibilities will conflict with decades-old technologies that have provided much-needed transparency on the internet, says Raj Samani, the chief scientist at cybersecurity firm McAfee.

Q&A
What is GDPR?

Show
The WHOIS protocol allows anyone to look up the contact details for the owner of a domain name, such as theguardian.com, google.com or parliament.uk. First standardised in the 1980s, it has become a key part of the toolkit for anyone trying to trace online wrongdoing back to its roots- a digital equivalent of Companies House or the Land Registry, Samani says.

“As an industry one of the first things we often do is use WHOIS data to determine whether something is likely malicious, or whether there’s an indicator of suspiciousness,” Samani explains. “It could be something as simple as ‘hey, look, this name is a name we find registered with other domains’, or ‘this metadata is used for other things’.”

But domain registrations are commercial contracts, meaning that those making a registration have a right to privacy that is hard to square with publishing contact details on the internet, as Sarah Wyld, a product manager at internet services company OpenSRS, wrote in November:

“It’s certainly difficult to argue that there’s a legal basis for openly sharing contact details of a domain’s owner, administrator, or technical contact in the public WHOIS record. And we can’t claim that it helps to accomplish the original purpose for which the information was collected (registering the domain). This means that the public WHOIS system as it exists today is incompatible with the principles of data privacy that the GDPR affirms.”

Advertisement

A further wrinkle is that GDPR-induced changes to the WHOIS system are likely to affect users worldwide, not just in Europe – as with Facebook’s decision to improve privacy tools for its own users. It has prompted a minor geopolitical scuffle, with David Redl, the head of the US National Telecommunications and Information Administration, noting that “the US government expects this information to continue to be made easily available through the WHOIS service.”

Some argue the change is unlikely to have as large an impact as it might initially seem. Many registrars have long offered the ability to keep details private when buying a domain, instead registering the site in their own name, which limits the ability of researchers to catch canny criminals. And law enforcement already has a wider array of tools than private security researchers, such as demanding the registration details direct from the registrars themselves.

But the information published by WHOIS can be useful to more people than just the professionals, Samani says. “A friend of mine was buying a camera over Christmas, and what they did is they looked a the WHOIS information for this website and actually the website had only been registered for a couple of weeks. And it was clearly fake information that had been put in: it was registered under something like “Mickey Mouse”, something equally obvious.”

Tim Chen, the chief executive of analytical firm Domain Tools, agrees, noting “it’s difficult to make broad statements about the interest of a ‘typical’ member of the public.

“Yes, members of the public who strongly favour their own privacy will likely look kindly on a change like this. Other members of the public want their information to be in WHOIS so that anyone navigating to their website can know who they are dealing with.

“There are more thoughtful and effective ways to meet privacy concerns than simply redacting all the contact fields.”

New UK data protection rules are a cynical attack on immigrants
Since you’re here …
… we have a small favour to ask. More people are reading the Guardian than ever but advertising revenues across the media are falling fast. And unlike many news organisations, we haven’t put up a paywall – we want to keep our journalism as open as we can. So you can see why we need to ask for your help. The Guardian’s independent, investigative journalism takes a lot of time, money and hard work to produce. But we do it because we believe our perspective matters – because it might well be your perspective, too.

I appreciate there not being a paywall: it is more democratic for the media to be available for all and not a commodity to be purchased by a few. I’m happy to make a contribution so others with less means still have access to information.
Thomasine F-R.
If everyone who reads our reporting, who likes it, helps fund it, our future would be much more secure. For as little as £1, you can support the Guardian – and it only takes a minute. Thank you.

Support The Guardian
Paypal and credit card
Topics
Internet
Data protection

Log ind eller Opret konto for at kommentere
Pressemeddelelser

Welcome to the Cloud Integration Enablement Day (Bring your own laptop)

On this track, we will give you the chance to become a "Cloud First" data integration specialist.
15. nov 2017

Silicom i Søborg har fået stærk vind i sejlene…

Silicom Denmark arbejder med cutting-edge teknologier og er helt fremme hvad angår FPGA teknologien, som har eksisteret i over 20 år.
22. sep 2017

Conference: How AI and Machine Learning can accelerate your business growth

Can Artificial Intelligence (AI) and Machine Learning bring actual value to your business? Will it supercharge growth? How do other businesses leverage AI and Machine Learning?
13. sep 2017