Del persondata om stress, sygdom og færden på kryds og tværs: Ny teknologi baner vej

11. oktober 2018 kl. 14:064
Del persondata om stress, sygdom og færden på kryds og tværs: Ny teknologi baner vej
Illustration: pinkypills/Bigstock.
Ny anonymiseringsteknologi kan potentielt gøre det lettere at dele persondata uden at skulle indhente samtykke
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Kommuner vil gerne dele persondata og smart city-data, virksomheder vil gerne kunne vurdere kunde-persondata i en virksomhed inden et opkøb, og HR-folk vil gerne benchmarke sygefraværsdata på de ansatte med andre.

Sådanne projekter har tidtil været bremset af, at deling af persondata på tværs af organisationer ofte kræver samtykke fra personerne bag data - og det er besværligt.

Men et nyt europæisk teknologi-samarbejde, som Alexandra Instituttet deltager i, kan potentielt gøre det lettere at dele persondata uden at skulle indhente samtykke, fortæller Instituttet i en nyhed, som Version2 har modtaget.

Med den nye teknologi svarer det nemlig til at dele anonymiseret data, og dermed falder det juridisk ikke under GDPR, og man kan altså undgå nogle af de ting, der er besværlige i dag.

Artiklen fortsætter efter annoncen

Sådan lyder det fra Mads Schaarup Andersen og Jonas Lindstrøm, begge fra Security Lab på Alexandra Instituttet.

De arbejder begge på SODA Scalable Oblivios Data Analytics, der er et europæisk teknologi-samarbejde, der skal gøre det nemmere at lave analyser på personfølsomme data.

»Vi har altid kunnet tilbyde den service, hvor man kan lave analyser på kombinerede data. Men den tidligere salgscase på den her teknologi har typisk været sygehuse eller organisationer, der ligger inde med personfølsomme data, som de gerne vil dele. Det er stadig relevant. Men GPDR har gjort teknologien endnu mere relevant, fordi så kommer lovgivningen og kræver noget, som den ikke har gjort før. Og så begynder virksomhederne at kigge efter tekniske løsninger på, hvordan de får løst det her. Så på den måde har lovgivningen skabt en businesscase på noget, som vi har arbejdet med i mange år,« forklarer Jonas Lindstrøm ifølge nyheden.

Fakta om SODA-projektet:

Konkret vil projektet forske i, hvordan man kan anvende følsomme data fra flere dataarkiver, uden at man går på kompromis med sikkerheden. I projektet arbejder man med Multiparty Computation, der gør det muligt at anvende data fra forskellige kilder på en sikker måde, dvs. at data forbliver krypterede, mens de behandles. Den anden er differential privacy, som giver sikkerhed for, at data er fuldstændig anonymiserede.

Projektet er et samarbejde mellem teknologi-koncernen Philips Research, Technische Universiteit Eindhoven, Georg-August-Universität Göttingen, Aarhus Universitet og Alexandra Instituttet.

Gør det muligt at dele kundedatabaser

I projektet arbejder man med tre cases. Den første er et samarbejde med tyske Uniserv, der arbejder med scenarier, hvor en virksomhed vil købe en anden virksomheds kundedatabase eller f.eks. vil købe hele virksomheden, så de får adgang til kundedatabasen.

Artiklen fortsætter efter annoncen

Den kan nogle gange være det mest interessante. Men som køber vil man gerne have en vurdering af, om det er en god kundedatabase, eller om den indeholder kunder, som man har i forvejen og dermed ikke kan bruge til noget.

Her kan man bruge den her teknologi, fordi den gør det muligt at sammenligne to databaser, uden at man nogensinde ser den anden. Det eneste, man får ud, er, hvor stor den er, og hvor mange personer man ikke havde i forvejen i sin egen database.

Maskinlæring træner HR-data

Den anden case er Collektive, der leverer infrastrukturen til modeller, der arbejder med HR-data om ansatte. Modellerne kan f.eks. bruges til at forudsige sygefravær og stress – og så kan virksomheder tage deres forholdsregler ud fra det.

Problemet er, at virksomheder typisk kun har data om deres egne ansatte. Det bedste i verden ville være, hvis de havde adgang til HR-data fra alle virksomheder i verden. Men det er selvfølgelig ikke muligt, da det er personfølsomme data.

Derfor bruger Collektive maskinlæring på en model, der bliver fodret med data, og som dermed gradvis bliver bedre i takt med, at den bliver trænet. Men i stedet for, at hver eneste virksomhed skal træne modellen ud fra deres egne data, så henter Collektive modellerne hjem og kombinerer dem, og dermed prøverde at lave en model, der er bedre end den enkelte.

»Pointen er, at Collektive ikke får noget data at se. De leverer bare infrastrukturen. Men virksomhederne får en model, der er bedre trænet, og som er mere brugbar til at forudsige sygefravær og stress,« forklarer Mads Schaarup Andersen.

Kan demokratisere kommunale data

Teknologien kan også være oplagt for mange af de kommuner, som vil etablere smart city-platforme eller dele offentlige data.

Nogle af de organisationer i Danmark, der ligger inde med rigtig meget interessant data, er offentlige myndigheder. De ligger ifølge Alexandra Insituttet typisk inde med nærmest al data om, hvad vi går og foretager os, og de har typisk meget bedre data end det, Google og Facebook opererer på. Men de har bare ikke haft mulighed for rigtig at udnytte det. Og de har med god grund siddet tungt på deres data.

Artiklen fortsætter efter annoncen

Der har dog været en barriere i forhold til at anvende personførbare data. Man frygter for at bringe dem i spil, fordi man ikke ved, hvad konsekvenserne er. Men der er rigtig stort potentiale i bringe personførbare data i spil - hvis det kan gøres på en privacybeskyttende måde.

Med den nye teknologi slipper de for at lægge dataen fra sig.

»Der er en masse modvilje i dag mod at dele data på tværs af organisationer, fordi man er bange for at sidde med ansvaret for, at noget går galt. Men ved at bruge den her teknologi vil de kunne undgå det, for du kan give andre adgang til dine data, men de kommer aldrig til at se dine data,« forklarer Jonas Lindstrøm.

4 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
4
11. oktober 2018 kl. 15:51

"at data forbliver krypterede, mens de behandles. Den anden er differential privacy, som giver sikkerhed for, at data er fuldstændig anonymiserede."

Hvordan anonymisere man sundhedsdata, når 3-4 diagnoser, som brækket venstre tå, enkelte ar, og måske en diagnose mere, er nok til at identificere personer med 99.9% Sikkerhed

Tror det er industrien håbløse forsøg på at få tilliden tilbage til dataindsamling. Efterhånden som der går op for flere og flere at den er helt gal.

Derfor at de slynger om sig med positive boss ord, mens deres våde drømme er "adgang til hr-data fra alle virksomheder i verden. "

Min egen læge notere heller ikke længere samtaler under konsultationen, eller andet. Og jeg kan kun forestille mig at mistilliden efterhånden, også vil snige sig ind til andre uden sølvpapirshat.

Hospitaler er dødsensfarlige, de slår mennesker ihjel.

3
11. oktober 2018 kl. 15:06

"Med den nye teknologi svarer det nemlig til at dele anonymiseret data og dermed falder det juridisk ikke under GDPR, og dermed kan man undgå nogle af de ting, der er besværlige i dag."

Hvis jeg giver mine data til et firma til brug til et nærmere defineret formål, så må de stadig ikke bruge de data uanset om de er anonymiserede eller ej, til andre formål eller overdrage dem til andre der ikke er givet samtykke til.

Jeg forstår ikke hvordan nogen med bare en studentereksamen kan påstå noget andet, med mindre de selvfølgelig lever af at sælge data og forsøger at misfortolke for egen vindings skyld.

2
11. oktober 2018 kl. 14:56

Hvor er definitionen af, hvad man forstår med "anonyme"?

Det er oplagt, at huske de nu herostratisk berømte ord "...ikke anonym i juridisk forstand", som kom fra centralt hold ifm. Trivselsundersøgelsen. For her er det vist kun tale om "anonym i juridisk forstand", dvs. ingen ved om det er andet end en juridisk finte med det ene formål at udmanøvrere samtykkekravet.

Trods mange skåltaler (1), så er der forsvindende lidt forskning i, hvad der reelt skal til for at anonymisere. Der er en naturlig modsætning imellem hvor meget information man kan trække ud af data og hvor svært det er reidentificere, og indtil videre er det stort set kun de folk, som ønsker at trække data ud, som har defineret metoderne og "best-practice".

Maskinlæring er som udgangspunkt også et utilstrækkeligt figenblad. Der er heller ikke her megen forskning, men jeg har dog fundet en artikel (pdf), hvor det vises, at man kan udtrække overraskende detaljerede information om det underliggende træningsmateriale efter træning. Der udtrækkes f.eks. hvad der svarer til cpr-numre. Og denne effekt optræder meget tidligt, så der er næppe tale om overtræning. Også her er der akut brug for mere forskning.

Jeg kommer til at tænke på Goethes digt om Troldmandens lærling; jeg tror ikke, at man ved, hvad man har gang i.

Kort sagt:"Alt hvad du siger og gør, vil blive registreret, og kan blive brugt imod dig"

Og når man møder den, så er det vist bedst at klappe i og bede om en advokat.


ad (1): F.eks. Madrid Privacy Declaration, 2009

8. Recommend comprehensive research into the adequacy of techniques that deidentify data to determine whether in practice such methods safeguard privacy and anonymity.

1
11. oktober 2018 kl. 14:26

... vi er for længst reducerede til dataobjekter, datamalkekøer, dataressourcer, dataslaver for datafeudalherrer...

Jeg ved slet ikke, hvad jeg skal sige til denne nyhed...

Hvor er definitionen af, hvad man forstår med "anonyme"? Hvor skudsikker er den definition i forhold til risikoen for reidentifikation?

Og uanset om det så - mod forventning - skulle være lykkedes at opfinde en form for anonymisering, som er skudsikker, så ændrer det ikke ved, at denne måde at bruge vore private data på, betyder, at de benyttes til formål, som i mange tilfælde ikke er til gavn for de borgere der lægger data til, men derimod til gavn for pengegriske virksomheders bundlinjer og til skade for os andre.

Og dette praler man ligefrem af skal ske uden samtykke....

Jeg bliver nødt til at fastholde - dette privatlivstyveri nærmer sig forbrydelser mod menneskeheden. Man invaderer menneskers privatliv og stjæler det - til formål, som i mange tilfælde vil være skadelige for både den enkelte og menneskeheden. Man reducerer os til husdyr, datamalkekvæg, slaver.

Nok så mange buzzwords kan ikke ændre på det faktum....

Jeg betragter de ansvarlige for denne udvikling som skruppelløse forbrydere....