KU-professor til Rigsrevisionskritik: »De forstår ikke universiteter som arbejdsplads«

Illustration: Christoffer Regild / www.regild.dk
I en rapport udgivet fredag kritiserer Rigsrevisionen de største danske universiteters sikkerhed i lagring af forskningsdata. Den kritik er forfejlet, mener leder af HPC-centret på fakultetet Science, Brian Vinter

Sikkerheden i lagringen af forskningsdata på de største danske universiteter er utilfredsstillende. Det var Statsrevisorernes kommentar til Rigsrevisionens rapport, der udkom mandag. Men den kritik er ikke rimelig, mener Brian Vinter, professor i High Performance Computing og leder af Sciences HPC-Center, som driver lagringssystemerne ERDA og SIF.

Brian Vinter er professor i grid computing, supercomputere og multikerne arkitekturer på Københavns Universitet og leder af Sciences HPC-Center, på Københavns Universitet Illustration: Jakob Helbig

Læs også: Statsrevisorerne: Universiteter sløser med it-sikkerhed omkring forskningsdata

Brian Vinter har i et debatindlæg på Version2 anført, at Rigsrevisionen »nægter [...] at forstå hvilken type arbejdsplads et universitet er.«

Version2 har interviewet professoren, som argumenterer med, at man bør skelne mellem forskellige typer af data, når man ser på sikkerheden for forskningsdata.

»En meget stor del af vores data er arbejdsredskaber, men ikke oprindelige data.«

»Det meste data der laves på et universitet er af ingen værdi, forstået på den måde at det kan reproduceres. Hvis jeg henter nogle data fra en international database, så kan jeg bare hive dem ned. Hvis det er data fra noget simulering, så kan jeg bare gentage simuleringen,« siger Brian Vinter.

De data er hverken hemmelige eller svære at genskabe, så sikkerhedsniveauet ikke så afgørende i den sammenhæng, mener Brian Vinter.

Tre niveauer af sikkerhed

Brian Vinter inddeler data i tre niveauer. Nederst er de førnævnte ”værdiløse” data, som er offentligt tilgængelige eller let kan genskabes.

I den modsatte ende af skalaen ligger de såkaldte GDPR-data: data, som indeholder persondata eller data som er personhenførbare.

»Det er ikke ret mange forskere, som arbejder med personhenførbare data. Næsten alle forskere arbejder med pseudonymiserede data, hvor nøglen, der skal bruges til at identificere en person, ligger i et helt tredje sted. Men selv om de er pseudonymiserede, behandler vi dem som GDPR-data,« siger Brian Vinter.

»KU har to systemer, som vi tillader, at man gemmer sine GDPR-data på: S-drevet og SIF - Sensitive Information Facility. SIF er beskyttet med to-faktor-autentificering, og for at få adgang til et projekt, skal man anmode om adgang, og projektets ejer skal godkende, at man kommer ind.«

»Alle dataoperationer på SIF bliver logget. Hver eneste læsning eller skrivning kommer ned i en logfil.«

På niveauet mellem GDPR-data og værdiløse data, er data, som ikke indeholder personhenførbare informationer, men som stadig repræsenterer økonomisk værdi.

»SCIENCEs Data Management Guide beskriver, at hvis du har data med mulig økonomisk værdi for KU, hvis det er noget vi kan tage patent på, eller hvis vi kan retsforfølges, hvis de bliver lækket, så må de ikke ligge på din PC, så skal de ligge på et af de godkendte systemer,« fortæller Brian Vinter.

De data, som skal hemmeligholdes, men ikke er GDPR-data, kan dog lagres på IT-systemer som ikke kræver to-faktor-autentificering, men blot et almindeligt log-in.

Uenighed om ukendte enheder på netværket

Et af kritikpunkterne i Rigsrevisionens rapport er, at IT-afdelingerne på universiteterne ikke har styr på de enheder, der kobles på deres netværk, og tillader forskere at tage deres egne computere med. Det betyder, at angribere kan få adgang til netværk, hvor forskningsdata lagres, gennem usikker software på forskeres computere, eller ved at koble deres egne enheder på netværket.

Men det mener Brian Vinter er en forkert sikkerhedsfilosofi.

Skal der ikke strammes op, så IT-afdelingerne kan holde styr på, hvad software der kører på forskernes computere?

»Jeg mener den modsatte vej rundt. I mit compute-center har vi den simple holdning, at vi forventer at forskerens PC er fyldt med alt muligt lort, vi ikke kan stole på. Vi behandler forskerens PC, som om den ikke er troværdig.«

Kan en angriber, som har installeret en keylogger på en forskers computer ikke relativt let få adgang til disse GDPR-data eller økonomisk sårbare data?

»Når der er tale om GDPR-data, så nej, for der har vi to-faktor-autentificering. Men i forholdet til de økonomiske data, så jo, men der har vi selvfølgelig standard intrusion decetion-systemer, som kan opdage hvis forskere pludseligt opfører sig underligt, så vi kan undersøge det.«

Synes du, at den sikkerhed står mål med følsomheden af de data?

»Ja, det er min overordnede konklusion. Jeg skal indrømme, at det er lidt fedtspilleri, for vi lægger op til, at den enkelte forsker skal sige ”jeg er ekspert i de her data”, og det er den enkelte forsker som ved, hvor de her data skal bevares.«

»Vi står selv på mål, også for økonomiske tab, og det har vi altid gjort.«

Generelt betragter Brian Vinter det ikke som en fornuftig praksis, at forsøge at holde styr på alle enheder på det netværk, hvor der arbejdes med forskningsdata.

»Min holdning er, at KU’s netværk bør indrettes sådan, at man altid forventer, at der er ukendte enheder på netværket. Vi får studerende og gæsteforskere på besøg, og vores egne forskere rejser rundt i hele verden med deres universitets-PC’er. Vi har ikke mulighed for at leve i et lukket økosystem, så derfor må vi betragte netværket som usikkert.«

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (27)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Anne-Marie Krogsbøll

Jeg forstår her bedre Brian Vinters kritik. Men jeg bliver alligevel noget bekymret, når jeg læser følgende:
"Jeg skal indrømme, at det er lidt fedtspilleri, for vi lægger op til, at den enkelte forsker skal sige ”jeg er ekspert i de her data”, og det er den enkelte forsker som ved, hvor de her data skal bevares."

Det er jo præcist her, det bliver svært - for i så fald er det jo op til den enkelte forsker - og det siger erfaringen er en dårlig ide. Det er den slags sikkerhedshuller, jeg mener ikke bør eksistere, når der er tale om følsomme persondata. For beskrivelsen af regler og procedurer viser jo netop, at data ikke kun befinder sig i forskermaskinerne, og at det ikke kun er resultater, der kommer med ud.

"»Min holdning er, at KU’s netværk bør indrettes sådan, at man altid forventer, at der er ukendte enheder på netværket. Vi får studerende og gæsteforskere på besøg, og vores egne forskere rejser rundt i hele verden med deres universitets-PC’er. Vi har ikke mulighed for at leve i et lukket økosystem, så derfor må vi betragte netværket som usikkert."

Så man betragter netværket som usikkert, men de enkelte pc-er som sikre? Eller er det en misforståelse fra min side? Og kan man sikre trafikken, hvis pc-en kobles op via et usikkert/åbent netværk i den anden ende af verden?

Et forståelsesspørgsmål: Hvad består 2-faktor autenciteringen i?

Jeg håber, at andre sikkerhedskyndige vil give deres besyv med - er Brian Vinters tilgang den rigtige?

  • 4
  • 5
Anne-Marie Krogsbøll

Nu har I lavet en fin opfølgning på kritikken fra Brian Vinters side, og det blev i hvert fald jeg klogere af. Jeg håber, at I sender bolden tilbage til Rigsrevisionen, som jo også bør få mulighed for at forsvare deres tilgang i rapporten. Jeg har stadig svært ved at forstå, at de skulle have valgt en helt hjernedød opskrift på denne undersøgelse.

  • 5
  • 0
James Avery

Så man betragter netværket som usikkert, men de enkelte pc-er som sikre? Eller er det en misforståelse fra min side?

Ja, det er en misforståelse fra din side. Citat fra Prof. Vinter ovenfor:

»Jeg mener den modsatte vej rundt. I mit compute-center har vi den simple holdning, at vi forventer at forskerens PC er fyldt med alt muligt lort, vi ikke kan stole på. Vi behandler forskerens PC, som om den ikke er troværdig.«

Som der også blev skrevet på den gamle tråd: det er utopi at tro, at en laptop bliver sikker bare fordi den er "låst" og kører "godkendt software". Hvis man tror det, forstår man ikke meget om datasikkerhed. Laptops, egne som "godkendte" må antages at være usikre, ellers bliver sikkerheden for skrøbelig.

Derfor er det ligegyldigt, at f.eks. en røntgenfysiker har bygget en måler, som sender resultater til en maskine over netværket (rød prik fra Rigsrevisionen), eller om en sekretær har en godkendt Windowsmaskine på netværket (grøn prik): ingen af dem er eller anses for sikre. Det er hverken muligt eller ønskeligt at lukke ned for, at forskere har maskinel som de selv styrer på netværket, for uden kan vi ikke gøre vores arbejde, men det er heller ikke relevant for sikkerheden.

Personfølsomme data skal slet ikke på det åbne netværk, ligesom mine molekylesimuleringer og Troels Henriksens matrixmultiplikations-benchmarks ikke har noget at gøre på de GDPR-sikrede SIF maskiner.

Det er en ommer fra Rigsrevisionens side.

  • 9
  • 0
Troels Henriksen

Det, jeg mener, er, at de åbenbart ansfes for sikre nok til, at man lader forskere medbringe dem og logge på verden over. Men det kan man måske sikre på en eller anden måde?

Jeg forstår ikke din slutning her. Man anser dem jo netop ikke for sikre, og netop derfor er det ikke noget problem at man tager dem ud i den store vide verden og kobler dem til hvadsomhelst, for man opfatter dem allerede som potentielt kompromitterede. Hvis du tog en sikker maskine ud i verden, så ville den ikke længere være sikker.

  • 9
  • 0
Claus Bobjerg Juul

Rigsrevisionen forsvare sig ikke, da beretningen skal kunne stå alene.

Jeg hæfter mig dog ved at Brian Vinter nævner 3 sikkerheds niveauer for data.
KU dataklassifikations model har dog væsentligt flere niveauer, så der er noget der ikke stemmer overens.

  • 3
  • 0
Anne-Marie Krogsbøll

Tak for svar, Troels Henriksen.

Det, der forvirrer mig, er denne sætning: "Vi har ikke mulighed for at leve i et lukket økosystem, så derfor må vi betragte netværket som usikkert."

Så kom jeg til at konkludere, at man betragter netværket som usikkert i stedet for pc-erne, men jeg kan godt se, at det er en fejlslutning fra min side. Meningen er vel så, at pc-erne betragtes som en del af de usikre netværk?

Det er sikkert indlysende, hvad der menes for folk med forstand på den slags. Men for mig amatør lyder det utrygt, at hele netværket og pc-erne betragtes som usikre, og alligevel tager man pc-er med ud i verden og logger på vore personfølsomme data. Men der er garanteret noget, jeg ikke har forstået rigtigt her.

  • 2
  • 4
Anne-Marie Krogsbøll

Rigsrevisionen forsvare sig ikke, da beretningen skal kunne stå alene.


Det er nok rigtigt i princippet - men når folk, der har forstand på den slags, retter så alvorlig kritik, så ville det være rart, hvis RR alligevel begrundede deres tilgang. Men det er da muligt, at man kan finde det i selve rapporten, som jeg må indrømme, at jeg ikke har læst.

  • 3
  • 3
Claus Bobjerg Juul

"Vi har ikke mulighed for at leve i et lukket økosystem, så derfor må vi betragte netværket som usikkert."

Brian Vinter er tilknyttet Niels Bohr Institutet (https://forskning.ku.dk/find-en-forsker/?pure=da/persons/228317)
Er det også sådan de andre institutter betragter deres netværk?
NBI bliver i beretningen fremhævet som at have et bedre design end de andre institutter på KU.

  • 3
  • 0
Brian Vinter

Brian Vinter er tilknyttet Niels Bohr Institutet (https://forskning.ku.dk/find-en-forsker/?pure=da/persons/228317)

Som det tydeligt fremgår af artiklen er jeg også ansvarlig for systemerne ERDA og SIF som I eksplicit valgte ikke at inkludere i revisionen og ikke nævner i rapporten, til trods for at de to systemer er den anbefalede løsning for mere end hver treide forsker på KU.

  • 6
  • 0
Kenneth Skovhede

Men det var netop den konkrete metode, jeg er nysgerrig efter.

Til ERDA / SIF anvendes standard TOTP, der virker både med hardware tokens og software generatorer:
https://en.wikipedia.org/wiki/Time-based_One-time_Password_algorithm

Der findes vel mere eller mindre sikre 2-faktor-metoder? Et gæt: Kode tilsendt på mobil er mere sikker end nøglekort?

Eller kan de alle betragtes som tilstrækkeligt sikre?

Til ERDA / SIF sendes der ikke koder på SMS eller lignende da telefon nettet ikke indeholder pålidelig routing eller transport sikkerhed. Der findes et utal af sager, specielt i USA, hvor det er lykkedes at overtage et telefonnummer (kaldet SIM swap):
https://www.wired.com/story/sim-swap-attack-defend-phone/

Hvis man bruger en service der kun har mulighed for SMS 2FA bør man bede dem om at rette problemet. Men omvendt bør man altid aktivere 2FA, for sløj 2FA er bedre end ingen da det trods alt gør det sværere at tilgå.

  • 12
  • 0
Tobias Tobiasen
  • 3
  • 0
Christoffer Kjeldgaard

Det er sikkert indlysende, hvad der menes for folk med forstand på den slags. Men for mig amatør lyder det utrygt, at hele netværket og pc-erne betragtes som usikre, og alligevel tager man pc-er med ud i verden og logger på vore personfølsomme data. Men der er garanteret noget, jeg ikke har forstået rigtigt her.

Det er ikke indlysende, og jeg skal forsøge at forklare sammenhængen.

Der er 3 elementer i spil her: klienter (telefoner, laptops og workstations) , netværk og backendsystemer (Her en fil-server og SIF systemet. Sammenhængen er at klienterne forbinder til backend Systemet gennem netværket.

Det antages at netværket altid er sikkert men dataen der flyder gennem det er ikke. Det er altså ikke muligt at ændre data der er undervejs mellem 2 punkter i netværket, men den data der passerer Kan være skadelig af karakter.

Filserveren på netværket indeholder data der ikke har nogen værdi og derfor ikke er værd at beskytte. Det er derfor relativt ligegyldigt om en usikker maskine henter data ud af den og sender videre.

SIF systemet indeholder sensitive datasæt vi ikke vil have kommer ud. Derfor kan klienten ikke bare hente data uden at brugeren beder om det og godkender det med sin 2 faktor autorisationskode - du spurgte om der er forskel på sikkerheden her og det er der. Papkortet fra NemID er den mest sikre løsning da den er 100% offline. For at sikre at klienten ikke bare støvsuger Serveren så snart brugeren har godkendt adgang bliver al adgang logget og analyseret for mistænkelig adfærd inden brugeren får adgang til data.

Ved at betragte klientsystemet som usikkert fra start stoler du ikke på noget, og Selvom det mellem mennesker vil blive set som paranoia så giver det god mening når data skal sikres.

Selv med ovenstående tiltag så er et system aldrig mere sikkert end brugeren af systemet, og de arbejdsgange de har med systemet. Som systemejer kan du aldrig sikre dig 100% mod en kreativ bruger der synes det er sjovere at tage screenShotsaf data eller kopiere noget over i et regneark og gemme det lokalt.

Løsningen er uddannelse, uddannelse og så lidt mere uddannelse af brugerne i dataetik og en solid IT governance med konkrete eksempler i de forskellige systemer.

  • 7
  • 0
Anne-Marie Krogsbøll

Sikke en masse gode forklaringer - tak til jer alle.

Så vil jeg vende tilbage til Brian Vinter, som måske med rette er irriteret over RR's kritik:

Som det tydeligt fremgår af artiklen er jeg også ansvarlig for systemerne ERDA og SIF som I eksplicit valgte ikke at inkludere i revisionen og ikke nævner i rapporten, til trods for at de to systemer er den anbefalede løsning for mere end hver treide forsker på KU.


Det er vel RR, du henvender dig til her, og ikke Version2? I så fald må vi håbe, at RR læser artiklen (og svarer).

Det er muligt, at din del af KU's digitale sikkerhedsnet er forsvarligt bygget op (åbenbart afhængig af den valgte metode for 2-faktor autencitering), men din del dækker åbenbart kun omkring hver tredie forsker på KU - og primært Niels Bohr-relateret? Så hvad med resten? Hvis omkring to tredjedele af forskerne kører på andre og mere usikre systemer, hvor de får lov at hente stærkt følsomme data ned på egne pc-er, og evt. tage disse med ud i verden - så har RR vel ret i deres kritik der - og man kan måske endda - i følge kommentarer til den anden artikel i går - nærmest kritisere dem for ikke at være kritiske nok, da der er nærliggende sikkerhedsrelevante problemstillinger, som ikke er dækkede af rapporten?

Hvis det er tilfældet (igen kan jeg tage fejl), kan jeg da undre mig over, at KU har valgt at sikre ikke-følsomme/fysik-relaterede data bedre end borgernes personfølsomme data.

Jeg kunne også tænke mig at vide, hvad "anbefalede løsning" dækker over - er det et krav, eller er det bare en anbefaling? I sidstnævnte tilfælde kan vi vist godt gå ud fra, at der vil være en del, der af forskellige grunde ikke finder den "anbefalede løsning" hensigtsmæssig, og som gør noget andet. Hvordan er sikkerheden i så fald?

  • 3
  • 0
Brian Vinter

vis omkring to tredjedele af forskerne kører på andre og mere usikre systemer, hvor de får lov at hente stærkt følsomme data ned på egne pc-er, og evt. tage disse med ud i verden - så har RR vel ret i deres kritik der - og man kan måske endda - i følge kommentarer til den anden artikel i går - nærmest kritisere dem for ikke at være kritiske nok, da der er nærliggende sikkerhedsrelevante problemstillinger, som ikke er dækkede af rapporten?

Hvis det er tilfældet (igen kan jeg tage fejl), kan jeg da undre mig over, at KU har valgt at sikre ikke-følsomme/fysik-relaterede data bedre end borgernes personfølsomme data.

Du har fuldstændig ret I at min kritik er rettet imod RR (ikke Version2)!

Dine spørgmål pinpointer min irritation over rapporten - der er på ingen måde ordentligt differentiteret mellem PHD og andre data former i rapporten, så lad mig blot gentage fra den anden tråd:

Hvis nogen på KU har PHD liggende på et ikke godkendt lager, og dermed uden DPOs vidende, er det et klart brud på alle regler. Givet den opmærksomhed der har været på det område det sidste år tvivler jeg stærkt på at nogen uforvarende skulle opbevare deres PHD uden godkendelse!

PS. De nævnte systemer er til rådighed for alle på fakultetet SCIENCE, det er ikke et NBI system. Efter aftale med KUIT (den overordnede IT organisation) er der også enkelte brugere udenfor SCIENCE.

  • 6
  • 0
Anne-Marie Krogsbøll

Tak for svar, Brian Vinter - jeg er blevet lidt klogere, og kan godt se, at der nok er nuanceer, som ikke kommer frem i RR's rapport - uden at jeg af den grund føler mig egentligt beroliget mht. persondata. Det er kun et par år siden, at danske forskere samlede ulovlige DAMD-data, og andre sendte en stor mængde stærkt følsomme danske PKU-data ulovligt til USA i forskningsøjemed - så med mindre forskerne får direkte persondatahåndjern på, så tør jeg ikke stole på, at de omgås forsvarligt og etisk med vore persondata. Der er bestemt masser af hæderlige, ærlige forskere, som overholder love og regler - men der er desværre med garanti også det modsatte - og vi har ingen chance for at vide, hvem der er hvem, desværre.

  • 4
  • 1
Bjarne Nielsen

Der er bestemt masser af hæderlige, ærlige forskere, som overholder love og regler - men der er desværre med garanti også det modsatte - og vi har ingen chance for at vide, hvem der er hvem, desværre.

...og det hjælper ikke ligefrem, at man tidligt i debatten til den første artikel om RRs rapport slår ud med armene og siger "forskningsfrihed".

Så vi bliver nok nødt til at tale om certificering, akkreditering og eksternt audit. Hvis man bruger sit universitets tilbud, ikke laver noget farligt og i øvrigt har styr på sine sager, så vil der ikke være noget at være bange for - så bliver det nærmest bare en formalitet (ja, jeg sagde lige, at hvis man ikke har noget at skjule, så har man ikke noget at frygte :-) ).

  • 4
  • 5
Jørgen Kanters

danske forskere samlede ulovlige DAMD-data, og andre sendte en stor mængde stærkt følsomme danske PKU-data ulovligt til USA i forskningsøjemed

Lige for at korrigere til de faktiske forhold. Det var ikke forskere der kvajede sig med DAMD databasen, men Danske Regioner. Regionerne ville have et styringsværktøj som de designede til DAMD (Indrømmet at det også kunne bruges til forskning, men det var ikke forskerne der var involveret i designet. Men enig i at det er en dum sag. Der var ikke noget ulovligt i at sende data til genotypning i USA som det skrives: Det der var forkert var at man ikke overholdt reglerne for varetagelse af en kontrolinstans. Selv om det var Harvard man havde entreret med skal reglerne overholdes. Det var en velfortjent næse til forskerne. Heldigvis havde Harvard overholdt reglerne, så dervar ikke sket noget.

Og så bliver I ved med at diskutere personfølsomme data. Disse data har ikke noget at gøre på almindelige forskningssystemer og det ved forskerne godt. Rigsrevisionen har slet ikke beskæftiget sig med det, det er datatilsynet der tager sig af det. Det forskerne brokker sig over er at deres forsøg der intet har med personhenførbare data (rotter, månedata etc.) at gøre skal gøres til genstand til så meget besvær. Vi laver ofte selv vores programmer og det kan en IT medarbejder ikke hjælpe os med: Rigsrevisionen interessere sig for om vores data kan stjæles og Universitetet taber penge: Det ved forskerne godt er et fata morgana og vil slippe fri for disse regler på ligegyldige data. Tror at vi alle er enige om at vi skal have højeste sikkerhed på personhenførbare data.

  • 2
  • 2
Anne-Marie Krogsbøll

Det var ikke forskere der kvajede sig med DAMD databasen, men Danske Regioner. Regionerne ville have et styringsværktøj som de designede til DAMD


Det er faktisk i følge disse artikler ikke rigtigt:
https://www.version2.dk/artikel/praktiserende-laeger-politianmelder-inds...
https://www.version2.dk/artikel/sundhedsstyrelsen-kendte-til-omfattende-...

Der var ikke noget ulovligt i at sende data til genotypning i USA som det skrives: Det der var forkert var at man ikke overholdt reglerne for varetagelse af en kontrolinstans.


Det er det, jeg og andre kalder ulovligt:
https://www.version2.dk/artikel/86000-danskeres-dna-sendt-usa-uden-kontr...

Rigsrevisionen interessere sig for om vores data kan stjæles og Universitetet taber penge:


Jeg mener, at vi har slået fast, at persondata behandles i forskningsprojekter på universitetet. F.eks. behandler Ipsych, som PKU-affæren udgår fra, store mængder meget følsomme persondata (også uden de pågældendes samtykke). Derfor er datasikkerheden på universiteterne særdeles relevant ift. persondatasikkerheden.

Jeg er personligt ligeglad med rotters privatliv, men jeg mener ikke, at det er korret at fremstille det som om, det kun er det, det drejer sig om.

  • 2
  • 0
Jørgen Kanters

Det er det, jeg og andre kalder ulovligt:
https://www.version2.dk/artikel/86000-danskeres-dna-sendt-usa-uden-kontr...​

Ja og også i den artikel fremgår at problemet var den manglende kontrolinstans og ikke som du skrev at data ulovligt blev sendt til USA. Men den manglende kontrolopfølgning var en overtrædelse af persondatalovens pgf 42.

Med hensyn til DAMD databasen er det et faktum at den er lavet i et samarbejde med en fagforening (Praktiserende Lægers Organisation) og Regionerne. Der er ikke forskere med her, selvom det er korrekt at den også kunne bruges til forskning.

Jeg har selv skrevet artikler om Ipsych. Disse data er ikke noget der ligger og flyder på universitetet, men ligger svært beskyttet uden for universitetet. Det kræver to faktor kontrol, og forskeren har kun adgang til data i anonymiseret form, med begrænsninger i hvilke metadata der må hentes ud så det ikke bliver persondatahenført. Alt bliver logget.

I virkeligheden har du og forskerne langt hen af vejen den samme interesse. Nemlig at der en meget høj sikkerhed på disse data. Det er vigtigt at vagthunde glammer, så systemet forbedres. Men omvendt må man også kræve at vagthundene orienterer sig om fakta, og er åbne for argumenter. Det skal vi forskere også.

Det jeg gør indvendinger imod er at debatten om rigsrevisionens krav bliver til en debat om persondatasikkerhed. Det var ikke det rigsrevisionen undersøgte. Forskerne brokker sig over tiltag der er rettet mod ikke personhenførbare data.

Derimod er vi enige om at personfølsomme data skal opbevares under høj sikkerhed.

  • 5
  • 2
Anne-Marie Krogsbøll

Tak for svar, Jørgen Kanters.

og ikke som du skrev at data ulovligt blev sendt til USA.


I mine øjne er det ulovligt, når man ikke opfylder de krav, der følger med at gøre det.

forskeren har kun adgang til data i anonymiseret form, med begrænsninger i hvilke metadata der må hentes ud så det ikke bliver persondatahenført


Jeg har aktindsigt i tilladelser til Ipsych, hvor man får tilladelse til persondidentificerbar adgang til psykiatriske patienters journaler - uden deres viden og samtykke.

  • 3
  • 3
Log ind eller Opret konto for at kommentere
IT Company Rank
maximize minimize