Gæstebloggen

Patientdataforening: Big BAD data er gift for kunstig intelligens

Det danske sundhedsvæsen står i dag på tærsklen til at ibrugtage nye teknologier, hvor big data og kunstig intelligens (AI) kombineres. Inden for sundhedsområdet kaldes det for personlig medicin, når big data, der inkluderer genetiske oplysninger, parres med AI. Men der et problem, for der er fejl i de data, som skal være det brændstof, som den personlige medicin skal køres på. Det kan vise sig at blive både dyrt og patientfarligt. For når det handler om sundhed, er big data også 'big trouble'.

Sundhedsdata var noget, vi tidligere indsamlede med stort møje efter at have sikret os samtykke fra afgrænsede patientgrupper. I dag vil man bygge den personlige medicin på en anden type data, som indsamles direkte fra vores alles digitale patientjournaler uden at spørge os om lov og uden nøje at tjekke for fejl. Det kan give problemer – for kunstig intelligens og for os.

Selvlærende algoritmer

Ved machine learning – det, som på dansk kaldes for maskinlæring – benyttes selvlærende algoritmer til at genkende mønstre og finde sammenhænge i big data. De selvlærende algoritmer trænes ved hjælp af historiske eksempeldata. Målet er, at maskinlæring via eksempeldata og brug af kraftige computere kan forudse og foreslå beslutninger om for eksempel diagnoser, prognoser og behandling i forbindelse med lægens arbejde. Man kan sige, at man ved hjælp af fortidens udfald forsøger at træne modeller, som kan forudsige fremtidige udfald for enkeltindivider. Det er det, man indenfor andre fagområder kalder for profilering; en teknik, som blandt andet bruges i den stærkt omdiskuterede predicitive policing, hvor ordensmagten ønsker at forudsige, hvor og hvem der vil begå kriminalitet indenfor et algoritmisk udfaldsrum. Tilgangen ses i dag indenfor mange andre områder, lige fra jobcentrenes vurderinger af arbejdsløses fremtidsudsigter til overvågning og styring af trafik.

Men hvad nu, hvis der er fejl i data? Det var fejl i data, som var en af hovedårsagerne til, at prisen for Skats it-system baseret på maskinlæring til ejendomsvurderinger i løbet af fire år steg fra knap 100 millioner til 1 milliard kroner.

Big data = big problem

Når man bruger big data til 'beslutningsstøtte' indenfor sundhed, kan fejl i data få massive konsekvenser for den maskinlæring, der hører med – og dermed for patienterne. Det gælder for fejl i de eksempeldata, der bruges til at træne algoritmerne, hvor især data med forkerte labels og data med bias kan afspore algoritmetræningen. Bias i sundhedsdata kan særligt blive et problem, hvis medicinalindustrien er medaktør i dataindsamlingen. Fejlfyldte data bliver dog i særlig grad af betydning, når datagrundlaget for en enkelt patient skal bruges som algoritme-input i forbindelse med sygdomsbehandling.

Man kan dog i nogen grad bruge automatisk fejlkorrektion, og i stor udstrækning vil algoritmerne under træning være robuste i forhold til påvirkning af tilfældige fejl, så længe der anvendes massive datamængder. Det betyder, at vi inden for enkelte højtspecialiserede sygdomme, såsom hepatitis C og leukæmi, i Danmark, er nået langt.

Når data derimod indsamles af lægen efter samtale og undersøgelse og noteres i journalen, vil man se, at forskellige lægers tolkninger vil forårsage stor data-heterogenitet, og det betyder, at mange diagnoser derfor er behæftet med stor usikkerhed. Målinger på apparatur er derfor langt mere velegnet end klassiske journaldata.

Det har dog vist sig, at målinger også kan give problemer for maskinlæring. Problemet opstår, fordi teknisk apparatur ændrer præcision og derfor løbende skal kalibreres. Datapræcision påvirkes også af udstyrets producent og model. Er tanken, at apparaturdata skal kunne bruges som et samlet datagrundlag for hele det danske sundhedsvæsen i forbindelse med AI, betyder det, at hele den danske sundhedssektor skal ensrettes, hvad angår dataindsamling og apparatur. Det er ikke enkelt, og så er det dyrt, og endelig kan systemet blive så centraliseret og låst, at reel udvikling bliver svært.

Forsigtighedsprincip og fejl

I Danmark har fejlfyldte data allerede givet anledning til alvorlige problemer. Det er fejlregistrerede data, som har givet problemer for den digitale ejendomsvurdering hos Skat. Fejlregistrering har for nylig medført, at 1.200 boligejere slet ikke har betalt ejendomsskat. Trods en langvarig og særdeles bekostelig indsats vil man hos Skat nu indføre et forsigtighedsprincip, som skal sikre, at den manglende præcision kommer boligejerne til gode. Princippet betyder, at det beløb, man som boligejer skal betale skat af, sættes 20 procent lavere end den offentlige vurdering. Til gengæld har Skat givet sig selv en fejlmargin på +/- 20 procent uden klagemuligheder, samtidig med at man har måttet udvikle endnu en digital løsning, så boligejere selv kan rette fejl i Bygnings- og Boligregistret (BBR).

At fejlregistreringer er udbredte, ses også i teledataskandalen, hvor telemasters placering har været registreret forkert i politiets it-system. Der var også fejl i teleselskabernes egne databaser om telemaster, og for nylig kunne man i Politiken læse, at selvom en telemast fra Telia og Telenor ifølge det oplyste befandt sig i Hornsyld, så befandt masten sig rent faktisk 109 kilometer derfra i Vejers Strand. Da der blev sjusket med fortegnelsen over master, var det næppe noget, som man var opmærksom på siden kunne få konsekvenser for opklaring af mordsager. Hele 10.000 (!) sager, hvor teledata indgik, skal nu kigges igennem og vurderes på ny.

Altid fejl

Det Etiske Råd har i et nyligt høringssvar bekymret sig om fejl og unøjagtigheder i danske sundhedsdata og skriver:

»Der vil altid forekomme fejl eller mangler, når mange mennesker står for indtastning af data. Det er utvivlsomt, at der i mange af de eksisterende registre findes data, som er mangelfulde, unøjagtige eller endog forkerte.«

At det ikke at let at registrere og indsamle sundhedsdata, er også dokumenteret ved de problemfyldte og bekostelige forløb i forbindelse med Sundhedsplatformen og et nyt Landspatientregister 3 (LPR3). Man bør derfor spørge, om det overhovedet er muligt at lave præcise data om alt? Og om disse fejlfyldte data kan bruges til automatiserede beslutninger om vores helbred.

Manglende patientsikkerhed med kunstig intelligens

I USA er man begyndt at lovgive, så sundhedsmyndighederne (FDA) kan monitorere og stille sikkerhedsmæssige krav til brugen af kunstig intelligens indenfor sundhedsvæsenet. Lovgivningsarbejdet er sat i værk, blandt andet efter at IBM’s Dr. Watson – et beslutningsstøtteværktøj baseret på maskinlæring inden for onkologi – foreslog forkert og farlig behandling af patienter. Alligevel kunne man for nylig i Scientific America læse, at AI-systemer indenfor sundhedsvæsenet ikke bliver så nøje testet som andet medicinsk udstyr, og det på trods af at systemerne allerede har begået alvorlige fejl.

Små fejl med stor virkning

Ved maskinlæring leder computeren efter korrelationer, såkaldte signaler, som kobler indikatorer til udfald. Stærke signaler kan også vise sig i data, som normalt betragtes som bagatelagtige. Det så man i den såkaldte 'Gladsaxemodel', hvor man ved hjælp af maskinlæring ville forsøge at lave tidlig dataunderstøttet opsporing af udsatte børn. I modellen indgik blandt andet udeblivelser hos sundhedsplejerske og skoletandlæge.

Registrering af udeblivelse vil for mange være en bagatelagtig information, som måske nok kan være udtryk for, at man som forældre slet ikke har styr på sagerne, men som også kan skyldes dårlig kalenderstyring hos tandlæge og sundhedspleje. I en almindelig lægeklinik er det eksempelvis ikke ualmindeligt, at op imod en femtedel af udeblivelser skyldes, at klinikken ikke får slettet en tid hvis en patient når at bestille en ny tid i den mellemliggende tid. Hvis Gladsaxemodellen var blevet rullet ud, kunne sådanne fejlagtige data om en udeblivelse, som altså kan være bagatelagtig og ikke ens egen skyld, have fået store konsekvenser for en berørt familie, og det særligt i en tid, hvor fokus er på flere tvangsfjernelser af børn.

Skal data bruges som udgangspunkt for beslutningsstøtte, kan selv det, som synes at være trivielle fejl uden betydning, altså sidenhen vise sig at få store konsekvenser. Skal vi fremover anvende maskinlæring og algoritmer, er det helt afgørende, at borgerne selv har mulighed for at tjekke egne data for fejl. Det er på høje tid, at vi opgiver ideen om computere som ufejlbarlige og kunstig intelligens som ægte visdom – ingen af delene er sandt.

Vi foreslår derfor ved AI, at:

• borgere får adgang til eget datagrundlag, så fejlregistreringer kan rettes,
• borgere får ret til at få slukket for AI-beslutningsstøtte, særligt når der sker fejl,
• AI indenfor sundhed testes, som det kendes fra lægemidler,
• borgere får garanti for, at beslutningsstøtte bliver netop det: en støtte og ikke selve svaret,
• automatiske AI-beslutninger kan appelleres til en menneskelig klageinstans,
• aktører med kommerciel interesse i bestemte udfald af beslutningsstøtten er inhabile som it-leverandører og bør udelukkes.

Relateret indhold

Kommentarer (54)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#2 Bjarne Nielsen

Jeg blev i regi af Folkeuniversitetet præsenteret for et illustrativt eksempel:

Man havde trænet et system til at kende forskel på hunde og ulve, og det var det blevet rigtigt godt til. Men et billede, som ganske åbenlyst var en hund, havde det efterfølgende klassificeret som en ulv. Og ikke bare en måske-ulv, men en helt-sikkert-en-ulv.

Man havde så på en eller anden måde fået lokket ud af systemet. hvilke dele af billedet, som den havde lagt vægt på; den havde ignoreret hele hunden, og i stedet truffet sin beslutning udfra at der var sne i baggrunden af billedet. Forklaringen er givetvis, at træningssættet har haft en del billeder af ulve på baggrund af sne, og ingen med hunde på baggrund af sne ... så den naturlige konklusion er, at er der sne på billedet, så er det helt sikkert en ulv. Og det uanset at vi mennesker kan se, at det i virkeligheden helt tydeligt er en hund (...og det ville sikket også virke med biler eller bare landskabsbilleder)!

Det er selvfølgeligt trælst. Jeg skal her undlade at komme med eksempler, men det kan gå galt på mange måder, og især hvis "Big Data" er "Bad Data" (for så er der masser af uventede og subtile "signaler", som i virkeligheden er støj og vildledning), og på subtile måder.

Men hvad nu hvis der foreligger ond tro? At den, som stiller træningsdata til rådighed har en interesse i at kunne manipulere på resultaterne ved manipulere med input? Det behøver ikke være så tydeligt, som sne på billedet - det kan være meget mere subtilt.

Lad mig lige citere fra sidst i det oprindelig indlæg:

  • aktører med kommerciel interesse i bestemte udfald af beslutningsstøtten er inhabile som it-leverandører og bør udelukkes.

Ja, lad mig lige blive konspirationsteoretisk:

Hvad nu, hvis man både kan påvirke, hvad der kommer i træningssættet af f.eks. røntgenbilleder, og (evt. ad omveje) påvirke, hvordan røntgenbilleder ser ud i praksis (f.eks. fordi at man levere software til efterbehandling af samme) ... og samtidig har en kommerciel interesse i beslutningens udfald? Så kan man tilføje det, som i ovenstående eksempel svarer til "sne i baggrunden" til billederne. Og så har man pludselig en direkte adgang til en hane, hvor man kan skrue op og ned for hvordan fejl-beslutninger falder ud, og til hvilken side.

Og det kan laves så svært at se, så det nærmer sig steganografi. Det kan være, at man i det ene hjørne sørger for at tallet for farven er ulige, eller lignende. Algoritmerne kan tydeligt se det, men vi kan ikke.

Så bestemmer man selv, hvor stort et overskud man tør fuske sig til, inden man risikerer at blive opdaget! Og selv hvis man er meget grådig, så bliver det svært at bevise som værende ond tro bagefter ... der skal nærmest en whistle-blower til.

Det kan blive diesel-gate om igen.

  • 11
  • 0
#3 Morten Bo Nielsen

Det ville være godt hvis det blev alment kendt at det svære ved machine learning og AI er data og ikke algoritmerne.

Jeg kan godt se at det er fristende at trykke på "modellér" knappen i et program, og så tro at den giver det rigtige resultat. Det er bare det rigtige resultat baseret på de data som man valgte at fodre den med.

Fejlbehæftede, mangelfulde eller bare forkert segmentering af data vil give en beslutningsbias, som gør systemet fejlbehæftet på en usynlig måde.

Det er ikke den slags systemer som vi ønsker vores myndigheder skal stole på.

  • 4
  • 0
#4 Peder Jensen

Hvor er jeg glad for at høre Thomas Birk Kristiansen syntes at "borgere får adgang til eget datagrundlag, så fejlregistreringer kan rettes".

Så bliver det ligesom på sygehusene, hvor patienterne kan læse deres journaler på Sundhed.dk - Det kan være at man så også kan lave kvalitets sikring på de praktiserende læger data, som man gør på sygehusene.

Det er egenlig også underligt at det hedder kunstig intelligens - for det er jo bare kunstig mønster genkendelse. Som den er fransk-amerikansk computerforsker Yann André LeCun sagde: "In terms of AI, we're not even close to a rat's intelligense"

Men netop mønstergenkendelse se fx: India Fights Diabetic Blindness With Help From A.I. Kunstig "mønstergenkendelse" kan kan se på en øjenbaggund om det er en mand eller kvinde med 99,9% sikkerhed - der findes naturligvis nemmere måder, at bestemme kønnet på - men hvis du lader øjenlæge se de samme øjenbaggunde kan man ligeså godt kaste en mønt.

Jeg er helt enig i, at der er mange ting AI ikke er god til og er alt for hypet, især blandt politikere. Men vi kan ligeså godt indse, at man som læge ikke kan håndtere det datamængder vi allerede nu bliver præsenteret for uden hjælp - for blot at nævne nogle: genetisk data, mikrobiom (bakterie flora), personlig medicin og så videre.

Jeg kan for øvrigt anbefale den Amerikansek kardiolog Eric Topol's bog Deep medicine. Han har både en stor indsigt i Medicinsk informatik og en sund skepsis. Jeg syntes også selv at jeg har en sund skepsis, men jeg er ikke pessimist og jeg ved også at man fra foreningen Danske Patienter har givet udtryk for at patienter gerne vil dele data, hvis bare det kan hjælpe andre

  • 1
  • 4
#5 Bjarne Nielsen

... at man fra foreningen Danske Patienter har givet udtryk for at patienter gerne vil dele data, hvis bare det kan hjælpe andre

Mmm, ja. Netop det udsagn hviler vist - som så meget andet fra Danske Patienter - på et noget tyndt grundlag. Som bekendt, så får man svar, som man spørger.

Indrømmet, Danske Patienter virker i høj grad som en rød klud på mig, og jeg fornemmer, at jeg ikke står helt alene med det synspunkt. Kort sagt, så lader det til, at "Danske Patienter" har lige så lidt med danske patienter at gøre, som "Folkerepublikken Kina" har med det kinesiske folk at gøre. Det virker til, at "Danske Patienter" ikke så meget betragter de danske patienter som formålet for at søge indflydelse, men mere som midlet til at have indflydelse.

Bevares, det er sikkert startet med de bedste hensigter og ud fra et oprigtigt ønske om at gøre op med urimelige forhold, og hvis man leder længe nok, så kan man sikkert finde flere gode ting ... både når vi taler om Danske Patienter og om Folkerepublikken Kina.

  • 5
  • 3
#6 Anne-Marie Krogsbøll

Men vi kan ligeså godt indse, at man som læge ikke kan håndtere det datamængder vi allerede nu bliver præsenteret for uden hjælp - for blot at nævne nogle: genetisk data, mikrobiom (bakterie flora), personlig medicin og så videre.

Altså har vi også her rakt fanden en lillefinger, hvor videnskaben - vel sagtens via adgang til store mængder patientdata, ofte uden samtykke - ender med at diktere en udvikling, som afvikler frihed, menneskeretten til privatliv og demokrati. Læs Shoshana Zuboff for at se de større perspektiver i dette.

Andre, herunder Thomas Birk Kristiansen, hvis jeg ikke husker galt, har peget på faldgruberne ift. personlig medicin, som vist lover mere, end det kan holde, og ikke altid er så personlig, som navnet lover.

Ja, der er store pespektiver, og hvis man lider af en alvorlig sygdom, så vil ens prioriteringer nok meget naturligt blive farvet af det. Men set i et større perspektiv skal vi ikke lukke øjnene for, at jagten på det evige liv i Singularity Univesitys verdensomspændende forsøgsstald ikke kommer uden en pris i form af tab af friheds- og menneskerettigheder. Mange af de ting, man lover at kurere, ville måske ligeså godt kunne forebygges/kureres med bedre sociale forhold eller livsstilsindsatser. og lægevidenskaben gør ikke kun gavn - millioner af mennesker har mistet liv og helbred pga. over/fejlmedicinering og dårlig medicin.

Og i øjeblikket kører en sag mod Mads Melby og SSI's forskning. Som jeg har forstået det, handler det både om noget med omgang med persondata, og patenter. SSI vil sikkert selv mene, at man har gjort det i menneskehedens interesse for at fremme forskning. Men hvorfor indebærer det patentinteresser og andre økonomiske interesser for millioner/miliarder, som man høster ridende på ryggen af borgernes privatliv?

Hvis det virkeligt er menneskehedens bedste, som ligger lægevidenskaben på sinde, så ryd ud og op i alle de uhellige alliancer mellem sundhedsvæsen, læger og kæmpe privatøkonomiske interesser. Den slags skal ikke blomstre i en skov af privatliv, som man har stjålet. Man har gjort enorm skade på borgernes tillid til både lægevidenskab og deling af data, fordi visse læger lader private økonomiske interesser gå forud for videnskab og borgernes interesser, og fordi staten også har misbrugt sin adgang til borgernes sundhedsdata til både økonomiske og kontrolformål. Ryd dog op i egne rækker, hvis I mener det alvorligt, at I kræver adgang til data for menneskehedens skyld.

Også jeg vil advare mod at nævne "Danske Patienter" i denne sammenhæng, for de er om noget et eksempel på alt det, der er galt med udnyttelsen af vore data: En lobbyistorganisation for medicinalindustrien, som har meget lidt med patienter at gøre, men som altid - tåbeligt grænsende til det forbryderiske - hives frem som trumfkort af politikere med godt forhold til medicinalindustrien. I mine øjne næsten kriminiel manipulation af befolkningen. Gid vi kunne få indblik i partistøtteregnskaberne.

Når man har ryddet ud i den i mine øjne kriminelle økonomiske udnyttelse af borgernes data, så kan vi begynde at diskutere, i hvilket omfang data - med samtykke - skal kunne indsamles og anvendes til alles bedste - hvis det altså kan gøres, uden at det koster friheds- og menneskerettigheder, for prisen for evigt liv kan meget nemt blive alt for høj.

  • 6
  • 3
#7 Anne-Marie Krogsbøll

ved også at man fra foreningen Danske Patienter har givet udtryk for at patienter gerne vil dele data, hvis bare det kan hjælpe andre

Jeg ved fra en konference for nylig, at Kent Kristensen er i gang med forskning omkring dette. Der blev fremlagt endnu ikke offentliggjorte, men meget spændende, resultater, og det billede, der tegner sig af befolkningens vilje til at dele privatliv med og uden viden og samtykke, ser noget mere nuanceret ud, end Danske Patienter og manipulerende politikere og embedsfolk plejer at fremstille det. Hvis man spørger ordentligt, hvad man fra officeil side ikke plejer at gøre, så får man nogle helt andre svar, end dem Danske Patienter plejer at kaste om sig med.

  • 4
  • 1
#8 Louise Klint

Tak for et godt og vigtigt indlæg. Jeg er meget enig i de 6 forslag. Det er yderst relevant og nødvendigt med mere og specifik lovgivning på området.

Jeg erfarede, via en artikel og interview med chefen for Lægemiddelstyrelsen, at AI og machine learning, i sundhedssektoren, er reguleret som medicinsk udstyr. 17.01.20: https://ugeskriftet.dk/nyhed/byggesten-i-kunstig-intelligens-ligger-i-morke

Jeg er ved at læse mig ind på det, https://www.retsinformation.dk/Forms/R0710.aspx?id=177643

men umiddelbart lyder det slet ikke tilstrækkeligt, synes jeg. Der skal lovgives langt mere specifikt om AI.

Forstået på den måde, at der er væsentlig forskel på fx et givent måleapparatur og så AI. Det handler dels om patientens forståelse af det resultat (afgørelse), som teknologien afgiver. Et resultat, som kan have stor indflydelse på patientens liv og videre behandling.

Eksempel: Andet medicinsk udstyr, som fx div. måleinstrumenter, der måler puls, temperatur, ekg, der måler på hjertet, eller lignende, trækker på en enkelt kilde. Det er til at forstå, for dig og mig, som patient, at denne ”måler”, der sættes på din krop, frembringer resultatet. (Og vi har ikke behov for at kende de teknologiske processer, der foregår inden i udstyret).

Med AI er det anderledes og mere komplekst. Her anvendes gerne data fra mange, forskellige kilder. Og kilder med indbyrdes forskellig vægtning.

Det er både abstrakt og uigennemskueligt, og dermed også svært at forstå.

Her, mener jeg, at det både er relevant og vigtigt, for patienten, at vide, hvilke kilder, der trækkes data fra. Samt evt. vægtningen, datakilderne indbyrdes. Det skal være gennemskueligt og forståeligt for patienten.

Ellers bliver disse teknologiske afgørelser dels fremmedgørende, dels utryghedsskabende. Nærmest hokuspokus.

  • 4
  • 0
#10 Peder Jensen

Hej

  1. Jeg er helt enig i at Shoshana Zuboff bog er meget spændende, Har selv købt den, men har endu ikke haft tid til at læse den. Men sundhedsvæsenet er vel ikke et socilat medie ? så hvad har det at gøre med mit indlæg ?

  2. Jeg har ikke nævt med ord at patienterne ikke selv må bestemme om deres data må bruges i aggregeret og anonymiseret form - De må gerne bruge min data, hvi det kan hjælpe andre.

  3. Jeg kan ikke se, nogen steder at Danske Patienter er finasieret af industrien - Deres medlemmer er de fleste store patientforeninger. Så du må meget gerne undebygge din påstand. Så syntes jeg da heller ikke vi skal holde møde med dem i lægeforeningen.

  • 2
  • 3
#11 Anne-Marie Krogsbøll

Tak for svar, Peder Jensen.

Men sundhedsvæsenet er vel ikke et socilat medie ? så hvad har det at gøre med mit indlæg ?

Sundhedsdata og andre data søges i stadig højere grad blandet sammen til forskningsbrug. Google forsøger f.eks. at få fingre i sundhedsdata. Det er mig bekendt endnu ikke lykkedes herhjemme - men jeg har på konferencer set forskere tale begejstret for, at et samarbejde vil være vejen frem.

Men kender du Storebox-projektet, hvor forskere (her i blandt så vidt jeg ved Mads Melby) henter folks indkøbsdata via en app ( privat foretagende) med det formål at forske i f.eks. sammenhængen mellem indkøbsvaner og helbred? Det medfører et kraftigt kig ind i folks privtliv - noget, de færreste kan gennemskue. Så der er der et kraftigt overlap. Skynd dig at læse Zuboff.

Og der er masser af eksempler på, at både det offentlige og overvågningskapitalister samler folks sundhedsdata fra diverse apps, og mange forskere ønsker samarbejder om dette.

Jeg har ikke nævt med ord at patienterne ikke selv må bestemme om deres data må bruges i aggregeret og anonymiseret form

Nej, og det er da fint, hvis du går ind for, at der skal samtykke til - men det bliver du ikke populær blandt forskere og politikere, hvis du siger det højt. De toneangivende indenfor området ønsker ikke et sådant krav om samtykke (og det er der ikke i øjeblikket). De er bange for, at folk siger "nej". Så sent som i dag har jeg fået et foreløbigt afslag på at få oplyst, hvad et konkret forskningsprojekt, som mine data er blevet hentet til, drejer sig om. Det har man ikke krav på at få oplyst vedr. forskning - og ofte gemmer kommercielle interesser (medicinalindustrien) sig jo bag disse projekter. Det får en til at føle sig som umyndiggjort databacongris, og jeg mener, at det er et overgreb på patienterne.

Deres medlemmer er de fleste store patientforeninger.

Som er finansieret af industrien! De færreste patienter har noget at skulle have sagt i den sammenhæng. Det er industrien, der er dukkeførere i baggrunden.

  • 3
  • 3
#13 Jakob Skov

Tingene glider lidt af banen.

Ja, patientforeningen har et problem med i meget høj grad at repræsentere kronikere. Ja, kronikere og folk fra gaden kan meget let have forskelligt forhold til data-deling. Forskelle man formentlig også ville kunne finde imellem de enkelte patientforeninger, hvor ie. Kræft (i nogen grad undtaget lungekræft) ville forventes at være mere zealotiske i forhold til hvor frit data må flyde end mindre alvorlige og eller tabu-belagte lidelser. Der ligger et reelt problem i forhold til private virksomheder der af forventet egen vinding går til patientforeningerne og lover lidt for meget, hvortil desperationen for "en kur mod x" let bliver den primære drivkraft fremfor nuværende patienters ve og vel.

Når det er sagt er den øgede brug af VIBIS med til at komme rundt om patientforeningernes lukkede univers og inddrage reelle patienter afgjort positivt! Men det lapper ikke alle de huller man har gravet op igennem 10'erne med det ekstreme pres for at lovliggøre data-delinger. Der er stadig et stykke vej til at give individet den retmæssige indflydelse på data-forhold, så vi kommer lidt mere udenom de potentielt beskidte forhold i PPP og de indbyrdes interesse-konflikter og penge mellem læger/forskere/foreninger/industri der let kommer til at tromle patienter og objektivitet.

Et andet og mere presserende problem er politikeres evige tørst efter data der måler kvalitet og den måde det perverterer lobbyisternes interesse-varetagelse. Hvis man i for høj grad hos patientforeningen mærker at man ikke kan få meget igennem uden data, vil der for interessevaretagende organisationer være en potentiel divergens af holdninger til behov i forhold til individerne der i sidste ende skal repræsenteres!

  • 4
  • 1
#14 Bjarne Nielsen

Det er svært at forholde sig til dine udokumenterede subjektive holdninger og sammenligning med Kina til Danske Patienter. Har du noget konkret at ha det i ?

For at tage det sidste først: ja, desværre.

Men iom. at jeg udtrykker en personlig holdning (som jeg da også gør noget ud af understrege), så er der ingen argumenter. Jeg prøver ikke at overbevise nogen; det er (1) for stort, og for off-topic et emne til denne debat.

Danske Patienter er respekteret af såvel det offentlige som Lægeforeningen.

Det er der sådan set ingen tvivl om (og det er (1) i høj grad problematisk).

Men mit formål var såmænd også kun at gøre opmærksom på, at respekten ikke er udelt (og især holdningen om, at deres "undersøgelse" af "danskernes holdning" til datadeling hviler på et tyndt grundlag). Og ikke mere end det. Din uforstående replik bekræfter mig i, at det var berettiget.

Ad 1: ...efter min mening! - og det vil jeg heller ikke argumentere for. Du, og andre, er velkomne til at være både uforstående og uenige, især set i lyset af fraværet af argumenter. :-)

  • 3
  • 2
#15 Mogens Bluhme

Det ville være godt hvis det blev alment kendt at det svære ved machine learning og AI er data og ikke algoritmerne.

Helt rigtigt.

Det minder om den store deroute logikprogrammering fik i Japan i 80'erne trods massiv satsning overfor slutbrugere.

Der var ikke noget i vejen med svarene - almindelige brugere forstod bare ikke, hvad de havde spurgt om og vidste intet om konsekvenserne af f.eks. negation as failure.

  • 2
  • 0
#16 Anne-Marie Krogsbøll

Snart er alle barrierer væk, og forskere og firmaer har frit slag til at rode i vore liv. Fra Trial Nations nyhedsbrev: " L35: Ny lov – nye muligheder Forskere har 1. juli 2020 nemmere adgang til at indhente informationer fra relevante patientjournaler. Denne adgang har længe været efterspurgt af forskere og patienter. Når der fremover skal forskes i nye behandlinger på danske hospitaler, så er det muligt for forskningspersonale, med deres ledelses tilladelse, at screene patientjournaler. Denne screening er første skridt i at finde mulige deltagere til den forskning som er adgangen til nye behandlinger i Danmark. Lovforslaget rummer også nye regler for anmeldelse af Sundhedsdatavidenskabelige projekter til videnskabsetisk komité og flytning af ansøgning om adgang til patientjournaler fra Styrelsen for Patientsikkerhed til Regionerne, samt en tidsfrist på 35 dage. Læs mere her. "' Og fra Trial Nations formålsparagraf: "Trial Nation offers a single, national entry point for life science companies, patient organisations and clinical researchers wishing to sponsor, participate in, and conduct clinical trials in Denmark." https://trialnation.dk/

Det er skræmmende, at det ikke er til at skelne forskere fra firmaer - Innovationsfonden står klar til at give milliontilskud til gribbenes ædegilde: https://innovationsfonden.dk/da/investeringer/investeringshistorier/klin...

Mange af de forskningspojekter, som på den måde får adgang til vore privatliv, vil komme til at handle om BigData og AI. Kvaliteten vil ofte være ringe (det er den på rigtigt mange medicinske forsøg). Og vi vil ikke blive spurgt, om vi vil være med. Det er groft - det er uanstændigt - det er forbryderisk, at man på denne måde fratager borgerne deres ret til privatliv, og reducerer dem til råstoffer for privatøkonomiske interesser. I fratager os vores menneskelighed, og gør vore liv til jeres private ejendom.

Befolkningen er nu delt op i to grupper: Dem, som, oftest ufrivilligt, leverer data - og dem, der stjæler, miner, sælger og udnytter dem - og som dermed udnytter resten af befolkningen. OverDanmark og UnderDanmark.

Hvad bilder I jer ind?

  • 3
  • 3
#17 Peder Jensen

Det morsomme i det her er, at det var de Praktiserende læger som startede DAMD-databasen (Dansk Almen Medicinsk Database) og nu gennem Patientdataforeningen nærmest er modstander af alle former for forskning i sundhedsdata.

Jeg er helt enig i de 6 punkter sidst i artiklen.

Jeg er helt på bølgelængde med Cathy O´Neils "Weapons of Math Destruction". De programmer (Predict) som politiet i USA bruger (og nu også i Danmark) bliver racistiske og forudindtaget, hvis du bor det forkerte sted eller har en anden hudfarve. Det skal AI ikke bruges til.

Jeg syntes også det er uhyggeligt hvordan de sociale medier og især Facebook gang på gang har misbrugt brugernes tillid som beskrevet i Shoshana Zuboff bog "Overvågningskapitalismens tidsalder". Man skal bruge de sociale medier med omtanke - som jeg går ud fra at Patientdataforeningen gør på deres Facebook side - Men forskning i sundhedsdata er ikke et socialt medie.

Især politikere tror AI kan mere en det rent faktisk kan. IBM Watson er et godt eksempel. Det er muligt at den kan læse tusindvis af artikler på ingen tid - men kan den forstå dem ? AI har ingen fantasi, intuition, empati o.s.v. - Den kan kun gentage det vi allerede ved eller de samme fejl som Cathy O´Neils beskriver det i sin bog.

Da jeg var nyuddannet læge, var mavesår en kirurgisk sygdom. Senere fandt man H2 blokkere så man kunne behandle det medicinsk. men i 90'erne fik nogle Australske forskere den skøre ide at det nok var en infektionssygdom (Helicobacter pylori) - Det havde kunstig intelligens aldrig regnet ud, da havde stadig været en kirurgisk sygdom. Det har ført en masse forskning med sig i de bakterier vi omgiver os med (Mikrobiomet). Hvor man i dag kan behandle nogle tarm sygdomme med indføring af oprensede bakterier (afføring) fra raske patienter. Det ville man aldrig have fundet frem til, hvis ikke man havde data (afførings prøver) fra såvel raske som syge patienter.

Men AI er god til fx at se på øjenbaggrunde (se Artificial intelligence in retina). Se på mikroskopiske præparater og meget mere. Hvis jeg skal komme med et eksempel. Man har som læge lært at T'takken i hjertediagrammet kan være udtryk for forhøjet Kalium i blodet. Med AI kan man med 99% sikkerhed bestemme værdien af Kalium i blodet, når IA ser på hele hjertediagrammet og ikke kun T'takken. Man ved aktuelt ikke helt, hvad AI ser på, men det virker - Det har jeg det fint med. I forvejen hviler en meget stor del, af det vi som læger laver på empiri.

Forskning i genetisk data vil være umulig uden brug af AI. Det er blandt andet hele grundlaget for personalised medicine. Hvor man blandt andet kan finde en mere præcis behandling til den enkelt kræftpatient (Zetland: Hvordan en medicinsk revolution kan redde liv)

Man må ikke glemme, at vi har en videnskabsetisk komite og AI bruger aggregeret data - når først det er aggregeret, kan man ikke gå tilbage og se enkeltindivider. Big data er ikke Big, hvis den ser på enkeltindivider - Men man kan bruge resultaterne på enkeltindivider.

De må gerne bruge min data, hvis det kan hjælpe andre. De må også gerne få mine organer, hvis jeg ikke har brug for dem mere.

For øvrigt kan jeg absolut anbefale bogen af Eric Topol "Deep medicine"

  • 4
  • 5
#18 Niels Madsen

Jeg synes ikke det er helt rimeligt at du fremstiller det som om der er tale om modstand mod forskning som sådan.

Jeg vil da gerne afgive data til forskning, men det skal være i nærmere bestemt omfang, og jeg vil selv afgøre om jeg synes at der er tale om ønskværdig (etisk acceptabel) forskning, hvis jeg skal være del af det. Det skal være mig som bestemmer omfanget, for det er mit data, som jeg har vundet hævd på. Som en illustration af hvad jeg mener, så låner jeg gerne, efter aftale, min cykel ud til et velgørende formål eller i en god sags tjeneste, i det omfang at jeg ikke selv skal bruge den.

Men opdager jeg senere, og gentagne gange:

-at min cykel er blevet brugt til helt andre ting end det oprindelige formål,

-at den er blevet brugt i forbindelse med ideologiske eller politiske kampagner, som jeg finder i modstrid med almenvellet eller mine egne holdninger,

-at cyklens stelnummer i hemmelighed er blevet kopieret og delt med ukendt formål til et ukendt antal organisationer og virksomheder som jeg ikke kan få at vide hvem er,

-at man nu er begyndt at "låne" min cykel igen og igen, helt uden at spørge om lov først,

-at den pludselig har fået installeret skjult mikrofon og GPS som ikke kan afmonteres, og at jeg forsøges tvunget til at cykle på den, selv på dage hvor jeg hellere ville gå,

så er konsekvensen at jeg ikke længere vil låne min cykel ud, og at jeg udstyrer den med den stærkeste lås som jeg kan finde, eller at jeg helt skaffer mig af med den.

Jeg kan på den ene side godt forstå at det er ærgerligt for de sundhedsvidenskabelige forskere som stadig har respekt for individets ret til selvbestemmelse over deres egne personlige oplysninger og krop.

Men så må disse forskere komme på banen og kæmpe for at disse menneskerettigheder (gen)indføres. Jeg selv kunne aldrig drømme om at afgive oplysninger om hverken min krop, mine tanker, vaner eller følelser på ufrivilligt basis. (Der skulle da lige være hvis der forelå en specifik dommerkendelse i forbindelse med en retssag eller lignende helt ekstraordinære situationer).

For at sætte det på spidsen, så vil jeg hellere ødelægge min ene nyre, hvis det eneste alternativ var at den ellers ville blive tvangsmæssigt "doneret" (eksproprieret) bort. Og det er på trods af at jeg bestemt er tilhænger af organdonation, bare det foregår på frivillig basis. Det er simpelt hen en opvejning af hvilket samfund jeg ønsker at jeg og mine børn skal leve i: Jeg vil ikke leve i et samfund hvor individet er reduceret til et middel for tidens politiske eller økonomiske agenda.

  • 7
  • 0
#19 Thomas Birk Kristiansen

I Patientdataforeningen er vi på ingen måde imod hverken datadeling eller forskning. Det har foreningen aldrig været. Gennem årene har foreningen været fortaler for at datadelingen bør ske på baggrund af selvbestemmelse og gennemsigtighed for borgerne. Det er faktisk i overenstemmelse om en undersøgelse fra Forbrugerrådet Tænk.

https://www.altinget.dk/digital/artikel/patientdataforeningen-danskernes...

  • 3
  • 0
#20 Anne-Marie Krogsbøll

Peder Jensen.

Jeg synes, du snakker uden om betænkelighederne. De kan ikke fejes af banen ved at opremse alle de gode ting, man kan bruge data til.

Men forskning i sundhedsdata er ikke et socialt medie.

Som jeg har anført, så er det ikke længere - med den linje, der lægges fra forskerside - muligt at skelne. Forskningen lægger op til sammensmeltning - jo flere data, jo bedre, fra alle kilder. Det må du gerne forholde dig til.

Jeg var for et par år siden med til stor konference i Mærsk-tårnet, arrangeret af regionerne, hvor det var det gennemgående tema og ønske fra de deltagende forskere, at retten til privatliv skal minimeres, for den er i vejen - for bundlinjen, men det siger man jo ikke - man siger "forskningen". Betænkeligheder var der meget få af - der var et lille bitte pligt-indlæg om etik på et tidspunkt. Jeg har været til flere andre konferencer med samme budskab, bl.a. "Data Redder Liv" på Børsen sidste år. Dollar-tegnene i øjnene stæsede rundt og netværkede på livet løs om, at nu må vi altså få fjernet den beslyttelse af privatlivet, for den er altså i vejen for fremskridtet, og Christiansborg er jo lige der ovre, så nu må vi igang med at lægge pres på politikerne, vi står på en brændende platform (Singularity Univesity-trosbekendelse). Det var storslemt at overvære.

Du kan ikke komme uden om, at det er enorme pengeinteresser, der på nuværende tidspunkt styrer både sundhedsvæsen og forskning. Ikke menneskehedens bedste. Læs Peter Gøtzsches bøger.

Man må ikke glemme, at vi har en videnskabsetisk komite og AI bruger aggregeret data - når først det er aggregeret, kan man

Hø! De videnskabsetiske kommiteer ser på, om ansøgninger og den slags er udformet korrekt. De foretager ikke nogen egentlig etisk vurdering af projekternes formål og mulige følgevirkninger (jeg har undersøgt det). Og som følge af L35, den nye sundhedslov, der snart træder i kraft, (se min kommentar ovenfor), lægges disse vurderinger nu ud til regionerne - som har direkte økonomiske interesser i jo flere industribetalte projekter, jo bedre. Og virksomhedene kan nu købe sig ind på hospitalsafdelinger, og få udført deres forskning der. Det er total skævvridning af forskningen i retning af primært bundlinjefokus og overtagelse af sundhedsvæsnet - ikke til menneskehedens bedste.

De må gerne bruge min data, hvis det kan hjælpe andre. De må også gerne få mine organer, hvis jeg ikke har brug for dem mere.

Lad være med at gøre det til et spørgsmål om, at man ikke går ind for forskning, hvis man tillader sig at kritisere det nuværende Klondyke omkring tyveri og udnyttelse af data. Indtil for nogle år siden deltog jeg naivt i befolkningsundersøgelser ud fra ønsket om at hjælpe videnskaben - og dermed menneskeheden. Det var inden, jeg opdagede, hvordan forskningen fungerer (læs Gøtzsches bøger), og hvordan data fra selv befolkningsundersøgelser finder vej til industriforskningens bundlinjer og private patenter. Det fik mig til at miste lysten til at deltage.

Hvorfor tager I fra lægeside, hvis I er så optagede af almennytten, ikke fat i nakken på de af jeres egne, som alt for ukritisk og grådigt underlægger sig industriens ønsker? Og hvorfor arbejder ikke alle læger for at skabe respekt om patienternes ret til privatliv via konsekvent information og samtykke, hvis det kan hjælpe på befolkningens tillid og vilje til at dele data? Det er da mærkeligt, er det ikke?, Hvis det virkeligt er almenvellet, forskerne har i sigte, og ikke egen bundlinje og karriere?

Det er en stråmand at påstå, at kritikerne ikke ønsker forskning. Forhold dig i stedet til de barrierer, som en del af os gang på gang forsøger at gøre opmærksom på: Elendig datasikkerhed, mangel på respekt om retten til privatliv og storkapitalens overtagelse af sundhedsvæsen og forskning. Alt sammen er til stor fare for frihed, menneskerettigehder og demokrati - og dermed til fare for almenvellet.

  • 5
  • 2
#22 Bjarne Nielsen

Jeg har lige givet tommel op for indlægget som helhed, men der er lige et par punkter, som jeg må kommentere på (fra samme afsnit):

Man må ikke glemme, at vi har en videnskabsetisk komite ...

Ikke bare en, men en myriade af dem, og de har voldsom slagside. Jeg kiggede for nyligt konkret på en, som blev brugt til vurdering af rimelighed og relevans af forskning indenfor sundsplejen, og den bestod ca. 50/50 af sundhedsplejesker og forskere i sundhedspleje. Det bliver næppe svært at overbevise dem om at der er stærke samfundsmæssige interesser på spil, som til enhver tid vil trumfe ethvert hensyn til individdet.

Der er selvfølgelig behov for en form for domænekendskab, men det er som at spørge et nævn af fodboldfans om der skal være mere fodbold i fjernsynet. Brugen af ordet 'etisk' er en form for oratorisk hvidvask, og et bedre navn ville være "videnskabsteknisk komite" ... men det sker næppe, for så ville størrelsen på figenbladet blive afsløret.

... AI bruger aggregeret data - når først det er aggregeret, kan man ikke gå tilbage og se enkeltindivider.

Det man bruger til at træne med, er bestemt ikke aggregeret. Det er korrekt, at resultatet er en ugennemskuelig "black box" (hvad i sig selv er problematisk, og derfor tales der om at åbne den op med f.eks. "explainable AI" ... og så er man i nogen grad ved at slå sig selv tilbage til start; men det er en anden snak til en anden gang), men det betyder ikke, at det derfor bliver anonymt - det er bare blevet ugennemskueligt.

Men selvom det er "common knowledge", at data bliver anonymiseret ved at blive tygget igennem af ugennemskuelige maskinlæringsalgoritmer, så er det, som så megen anden "common knowledge", forkert. Jeg læste f.eks. for nogen tid siden et paper, hvor forskere have udsat en AI, som var blevet trænet på rigtige journaler, for det, som må svare til et 3. grads forhør, og ja, de fik personlige identifikatorer ud af den (jeg tror, at det var et Social Security Number, dvs. svarende til cprnummer), også selvom algoritmen egentlig slet ikke burde interessere sig for det. Den kunne simplethen "huske" overraskende detaljer fra de enkelte journaler. De checkede derefter op på, om overtræning var en faktor, og det var det ikke.

Aggregering bliver også anset for at være en anonymiseringsmetode, men det er en ringe metode, og den bliver brugt med alt, alt for let hånd. "Exceldata" fra Trivselsundersøgelserne blev på et tidspunkt gjort offentlig tilgængelige på "aggreret" og "anonymiseret" niveau, og her kunne jeg så se, at der var fire drenge fra Christiansø, og at en af dem havde svaret mindre positivt end de andre tre (jeg kunne se alle svarene på de konkrete spørgsmål, og hvor mange som havde svaret "3" (det var en) og "4" (det var tre). Retfærdigvis skal det siges, at man vistnok har reduceret detaljeringensgraden en smule efterfølgende, så præcist det trick ikke længere er muligt. En meget lille smule...!

Jeg kunne også kigget på præcise tal for, hvordan der var blevet svaret på Langelinjeskolen på Østerbro (som vist har omkring 1000 elever), og det var interessant, fordi at en elev havde bedt om få sine besvarelser anonymiseret, men det var ikke sket ... og nu kunne man ikke efterfølgende gøre det, uden at vi andre kunne trække totalerne fra de to "aggregerede" datasæt (dvs. "før" hhv. "efter" datasættet) fra hinanden og læse elevens svar i alle detaljer.

Samme trick kan risikere at hænge udsatte elever ud. Hvis en klasse generelt svarer nogenlunde ens de første par år, og der så kommer en ny elev i klassen, og der pludselig kommer et svar mere, som stikker af fra de andre, ja, så er det jo nok den nye elev. Det kan man trække på skuldrene over, for mon ikke alle, som kender klassen på hverdagsniveau, allerede ved det. Men det gør Google også. Og det ved også, hvem det er som flyttede, og hvornår. Og Google og andre behøver ikke være sikre, for at sige, at du nok er udsat og tegne en profil af dig, som kan bruges til fremtidig forskelsbehandling.

Jeg kiggede også på "aggregerede" og "anonymiserede" data for provokerede aborter, hvor man havde sat k=5, dvs. at skalaen var 0, < 5, < 5, < 5, < 5, 5, 6, 7 ... etc. For 1. halvår havde tre kommuner hver rapporteret < 5, ialt < 5 og andet halvår var der 5, ialt 8 for hele året. Doh! Det kræver ikke folkeskolens udvidede eksamen at regne ud, at 1. halvårs "< 5" var præcist 3, og at hver af de tre kommuner der havde haft "< 5" provokerede aborter, havde haft præcist en. Kombineret med, at tallet for andre aborter var 0 for samme i samme periode for samme kommuner, så afslørede datasættet at personer i nævne kommuner i nævnte periode, som måtte have haft en abort, havde fået en provokeret abort. "Aggregeret", nej ikke rigtigt, og slet ikke anonymt.

Jeg har en kollega, som tidligere i et liv blev involveret i et større EU projekt, som baserede sig på anonymiserede data, og nærmest som en eftertanke, fik hans gruppe til opgave at vurdere potentialet for re-identifikation. Han starter med at afsøge området for reelt forskning og han finder meget, meget lidt. Det er simpelthen ikke noget, som man ønsker at interessere sig for.

Hans gruppe formår da også at vise et ganske stort re-identifikationspotentiale, og det var klart ikke, hvad man havde håbet på, hvor resultaterne bliver i høj grad ignoreret.

Skal man pege på forskning, så vil det nok (desværre) stadig reelt kun være Cynthia Dwords (og andres) arbejde med diffential privacy. Et centralt begreb her er "privacy budget" ... hvis man trækker anonymiserede (f.eks. aggregerede) data fra det samme underliggede datasæt (og i sidste ende de reelle tal), så stiger re-identifikationspotentialet jo flere gange man gør det. Der er mao. et endeligt antal gange, hvor man kan "anonymisere" og bruge data. Og jo lettere hånd man bruger, jo færre gange inden at der kan reidentificeres.

Og det jo næppe overraskende, at det er meget nemmere at få penge til at forske i alt det festlige, som man kan bruge alle disse data til, end det er at få opbakning til at være en "party-pooper", som kan gøre opmærksom på det problematiske i at feste videre.

Big data er ikke Big, hvis den ser på enkeltindivider ...

Ah, nu er "Big Data" et sælger-modeord, og derfor er det svært at finde en fast definition, men jeg kan fortælle at f.eks. Wikipedia har en beskrivelse, som går i den direkte modsatte retning: Big Data er ikke bare om individer, det er meget mere om individer end nogensinde.

Jeg har for ikke så længe siden hørt Kaj Grønbæk, som er afdelingsleder for Institut for Datalogi på Aarhus Universitet, tale om netop Big Data, og selvom han tydeligvis er frontløber på data-optimismen, og jeg derfor er uenig i meget af, hvad han siger og gør, så vil jeg alligevel name-droppe ham ind her, for hans definition havde åbenlyst et meget stort overlap med Wikipedias definition, og går derfor også i den stik modsatte retning. Jeg vil derfor mene, at Wikipedias definition næppe er helt skæv.

Big Data er big fordi der er tale om mange flere data:

  • istedet for at se på aggregerede data, som f.eks. at en el-måler afrapporterer om forbrug en gang om året, så afrapporterer på sekundbasis ... hvad gør at man kan komme med velkvalificerede gæt på, ikke bare om hvor meget TV der ses, men også hvad der ses.
  • der trækkes også på langt flere datapunkter. Kaj Grønbæk viste, som eksempel, et meget detaljeret datasæt for et århusiansk kollegie, hvor man ikke bare havde højopløste data fra elmålerne, men også om vand, varme og luftkvalitet (og meget mere). Så kan man ikke bare se, hvornår folk er hjemme, og hvad de ser i TV, men også om de har en med hjem, og hvor megen ekstra fysisk aktivitet , som det måtte medføre.
  • istedet for velvalgte (og forhåbentlig frivillige) medvirkende, så laver man totaltællinger. Det er ikke nogle tusinde elever, som udsættes for spørgeskemaer, nej det er alle elever i samtlige klasser på alle skoler i hele nationen, som skal være med ... og du kan ikke sige nej, fordi 'det er en del af undervisningen'. Du kunne heller ikke sige nej til Kaj Grønbæks med mange fleres snagen, hvis du ville have et kollegieværelse, for alle skulle være med.
  • man ønsker også at kunne sammenkøre og sammenstille diverse (som i forskelligartede) datasæt, så ikke alene er det i høj grad på individ-niveau, det er i høj grad også linkable. Enten med vilje (mon ikke man allerede er klar til at sammenkøre oplysning om indeklima på kollegieværelserne med individuelle karakterer?) eller fordi at data bare generelt er meget mindre anonyme end vi tror. Og sammenstilling af hver for sig uskyldigt udseende data kan gå hen på blive alt andet end uskyldigt, se f.eks. https://www.schneier.com/blog/archives/2020/01/collating_hacke.html
  • mange flere data om den enkelte, mange flere slags data om den enkelte, data om mange flere individder og data fra mange flere kilder ... men beskrivelsen af Big Data er ikke komplet uden som sidste punkt at vende tilbage til diversiteten af data og i kvaliteten af data ... som jo i høj grad også er en del af Thomas og Anders budskab. Efterforskning og efterretning er vant til at arbejde med forskelligeartede kilder, og f.eks. Europol arbejder med en 4x4 klassifikation: En vurdering af, hvor troværdig kilden er, kombineret med en vurdering af, hvor præcist kilden på forventes at være. Vi kan ikke sammenstille data på tværs af kilder, og data indsamlet til vidt forskellige formål, uden også at tale om troværdighed og kvalitet ... men det glemmer vi, når vi taler om Big Data.

Men man kan bruge resultaterne på enkeltindivider.

... og langt mere end du lader til tro ... :-)

  • 5
  • 0
#23 Peder Jensen

Hej Anne-Marie

Patientdataforeningen og Thomas Birk Kristiansen og Trine Jepsen for så ihærdigt at holde fast i denne problemstilling.

Hvornår var det at Thomas Birk Kristiansen og Trine Jepsen så lyset ?

Det var de Praktiserende læger (PLO) som startede DAMD-databasen (Dansk Almen Medicinsk Database) finansieret af Regionerne. Var det dengang at Regionerne syntes det kunne være en god ide at kvalitetssikre de Praktiserende læger ? Som man med held har gjort på sygehusene. Så man fx ikke længere opererer for brystkræft på Bornholm, Ringsted o.s.v. - Eksemplerne er utallige.

Det fælles medicinkort (FMK) er også initieret af PLO, hvor især den nu pensionerede praktiserende læge Jens Parker var primus motor i projektet. FMK bliver brugt til at dosere efter af hjemmeplejen, på plejehjem o.s.v. Den store fordel er at, hvis egen læge eller der på sygehuset laver om på medicinen, kan patienten og sundhedsprofessionelle som behandler patienten også se det. De sidste tal fra Sundhedsdata styrelsen viser at PLO kun afstemmer ca. 25% af kortene - det til trods for at de overenskomstmæssigt har fået ekstra betaling for det flere gange. På sygehusene ligger vi på 65-75% afstemning (uden ekstra normering) til trods for som de fleste ved, at der har været store tekniske udfordringer. Jeg ved min egen afdeling tidligere har været topscorer med afstemning på omkring 95%. Så måske det var en god ide også at bruge data til kvalitetssikring hos de praktiserende læger ? Jeg tror næppe patienterne har noget imod det.

  • 3
  • 7
#24 Anne-Marie Krogsbøll

Hej Peder. Tak for svar.

Jeg har ikke nævt med ord at patienterne ikke selv må bestemme om deres data må bruges i aggregeret og anonymiseret form

Jeg er lidt forvirret. Hvad er det egentligt, vi er uenige om? Mener du det, du skriver her? Hvor er det så, du er uenig med os andre?

Mht. DAMD så brød de jo altså loven. Hvorfor synes du, at det var forkert at gøre opmærksom på det? Og jeg er personligt glad for, at der blev kæmpet for retten til et fortroligt rum hos lægen - og jeg er vred over, at det nu er ødelagt.

Og dine eksempler på manglende dataindberetninger viser jo netop, at datakvaliteten er alt for ringe til at kunne bruges i AI. Så hvorfor er man alligevel i fuld gang med at udvikle AI? Løs dog de grundlæggende problemer først.

Et sted, hvor man kunne gøre en stor indsats fra lægeside, ville være at stramme op omkring indberetninger af bivirkninger. Det har man ikke så travlt med at gøre - til stor skade for patienterne. Læger siger typisk: 1) Det er ikke en kendt bivirkning, altså eksisterer den ikke, og skal ikke indberettes. 2) Det er en kendt bivirkning, så er der ingen grund til at indberette det. (Jo, det siger de - jeg har hørt begge dele fra min tid som ansat i psykiatrien). Så det ville da være et godt sted at starte, hvis man vil kvalitetssikre?

Dilemmaet her er, at så vidt jeg ved ryger sådanne indberetninger videre til det producerende medicinalfirma - med meget ringe anonymisering. Igen et eksempel på, hvor svært det er at beskytte retten til privatliv, når sammenblandingen sundhedsvæsen/industri er så omfattende.

Men for at vende tilbage til starten:Hvad er du egentligt uenig med os andre i, hvis du faktisk går ind for, at patienter skal informeres og give samtykke?

(og hvis jeg må være så fri at spørge: Indgår du selv i forskningsprojekter på hospitalet? I givet fald: Hvem sponserer?)

  • 3
  • 1
#25 Anne-Marie Krogsbøll

Jeg kan supplere med, at jeg har aktindsigt, der viser, at Sundhedsdatastyrelsen for et par år siden tilbød det udenlandske firma Walnut Medical aktindsigt i "aggregerede" danske sundhedsdata i grupper på <3 - mod betaling! Det er ikke lykkedes mig at få opklaret, om handlen gik i orden - men det var på det tidspunkt helt lovligt. Nu har man vist hævet gruppestørrelsen til 5 (efter hukommelsen) - men det er stadig helt uanstændigt, og udtryk for bedrageri overfor befolkningen at kalde det "aggregeret" eller "anonymiseret, sådan som man ynder at gøre.

Og den slags bevidst bedrageri overfor befolkningen er stærkt ødelæggende for tilliden og viljen til at dele data.

  • 4
  • 0
#26 Niels Madsen

Anne-Marie Krogsbøll, Har du egentlig overvejet at offentliggøre nogle af dine mange aktindsigter med tilhørende svar? Jeg har selv en håndfuld på datarettighedsområdet. Da nogle af dem tager udgangspunkt i egne data (ellers nægtes man ofte indsigt pga. "manglende retslig interesse" el. lign.), ville det selvfølgeligt være nødvendigt at frasortere den personlige del af svaret.

Jeg tænker at sådan en samling kunne være uvurderlig når det kommer til at få overblik over området og dokumentere hvor langt ude det efterhånden er kommet.

Bare en idé...

  • 3
  • 0
#27 Peder Jensen

Hej Anne-Marie

Det er meget simpelt, du behøver ikke at være forvirret - som min overskrift antyder og punkt 1 i artiklen “Borgere får adgang til eget datagrundlag, så fejlregistreringer kan rettes

Endelig vil de praktiserende læger dele data med patienterne

  1. Patienterne har ikke adgang til umiddelbart at se, hvad egen læge har skrevet om dem. På sygehusene kan du se notatet, blodprøve svar o.s.v. dagen efter besøget.

  2. Måske har de praktiserende læger en anden dagsorden, der handler om man ikke vil kvalitetssikre data ? På sygehusene har vi som anført haft stor succes med kvalitetssikring, Så man fx ikke længere opererer for brystkræft på Bornholm, Ringsted o.s.v

  3. Hvis du alligevel skal “offentliggøre nogle af dine mange aktindsigt’er” - må du meget gerne finde nogle hvor patientdata er blevet misbrugt i forbindelse med forskning og kvalitetssikring - efter GDPR

  • 1
  • 3
#28 Anne-Marie Krogsbøll

Hej Peder.

Hvad er det så, du er uenig med os andre om mht., at patienter/borgere skal have ret til at blive informeret, og til at give samtykke til indsamling og anvendelse?

må du meget gerne finde nogle hvor patientdata er blevet misbrugt i forbindelse med forskning og kvalitetssikring - efter GDPR

Hvorfor efter GDPR?

Men vi kan da starte med den verserende SSI-sag. Hvis de mistanker, som har være ude i medierne, holder stik, så er der her tale om et kæmpe misbrug af betroet adgang til data. Det bliver interessant at følge, hvad der kommer frem om den sag.

Og så er det jo altså sådan, at jeg mener, at det principelt er misbrug af data, at forskere og firmaer henter og anvender borgernes privatliv uden disses viden og samtykke - uanset har juridisk lovligt det er, så er der etisk tale om misbrug og overgreb. Også efter GDPR.

  • 4
  • 1
#31 Peder Jensen

Kære Bjarne

Du har også fået en tommel op af mig :-)

Jeg er stort set enig med dig i det du skriver. De som jeg er fortaler for er at man bruger AI til det som det kan bruges til, som fx Skak og Go. Reglerne til skak fylder ca. 8 A4 sider og reglerne til Go fylder ca. 2 A4 sider og det er udelukket at man snyder. Færdselsreglerne fylder ca. 140 A4 sider (sidst jeg tjekkede) - Desværre overholdes de ikke altid. Derfor går der nok 10 år inden vi ser niveau 5 selvkørende biler. Selv de, får nok svært ved at klare sig i svært fremkommeligt terræn.

Desværre findes der en dårlig kombination af ivrige programmører og “visionære” politikere. Som tror man kan løse alt med AI - Vi så det med IBM Watson. Den kan svare på nogle simple spørgsmål fra jeopardy - Watson kan helt sikkert indeholde en masse information, men derfra er vejen meget lang til, at forstår patientjournaler og faglitteratur. Hvilket virkeligheden goså har vist.

Derfor skal AI bruges til at genkende mønstre. I øjenbaggrunden, EKG, røntgen billeder, Patologiske præparater, patientpopulationer o.s.v. - overvåget og kontrolleret af mennesker. Men man skal ikke glemme at AI har ikke en selvstændig fantasi - så resultaterne vil udelukkende afspejle det aggregerede data.

Jeg er helt klar over, at for at opbygge aggregerede data, skal man starte med hele datasættet - men der er ingen grund til at gemme det.

og langt mere end du lader til tro ... :-)

Jeg er sikker på at jeg har fantasi til, hvad data kan misbruges til. Desværre er det de færreste som ved hvad de giver tilladelse til når de installerer sociale medier og især Facebook på deres telefon.

  • 2
  • 2
#33 Anne-Marie Krogsbøll

Kære Peder.

Jamen, jeg går da afgjort ind for at patienter skal have adgang der også. Patienterne skal have adgang, og kan give samtykke til videregivelse til kvalitetssikring. Der skal ikke være frit slag til alle mulige andre anvendelser.

Vil du så også svare på, hvor det er, du mener, at patienter/borgere ikke skal have information og give samtykke?

  • 2
  • 0
#37 Anne-Marie Krogsbøll

Kære Peder.

Goddag mand, økseskaft. Du flytter målpælen.

Vi taler om patienters rettigheder omkring deres data. Den mistro, jeg føler ift. den nuværende situation på det område, kan ikke fjernes med kvalitetssikring. Kvalitetssikringen kommer efter, at man har sørget for ordentlige forhold omkring datarettigheder. Hvis man henter data for at kvalitetssikre, inden man har fået styr på dataetik, datasikkerhed og datarettigheder, så forværrer man min mistro.

  • 4
  • 3
#38 Niels Madsen

"Patienterne skal ikke give samtykke til at indgå i Kvalitetsudvikling"

Hvis patienterne ikke skal samtykke for at indgå i Kvalitetsudvikling, så kan det da undre at jeg, så sent som i denne uge, skulle udfylde og aflevere et samtykke-skema, hvor et selvstændigt afkrydsningsfelt om netop Kvalitetsudvikling indgik. Dette var i forbindelse med en undersøgelse på Bispebjerg hospitals hudafdeling.

Kunne der her være tale om endnu et område hvor der ikke spilles med åbne kort, eller ...?

  • 3
  • 2
#43 Anne-Marie Krogsbøll

Peder Jensen:

Nu gik det ellers lige nogenlunde med at diskutere - ærgerligt, at du så alligevel forfalder til at kaste alt muligt mærkeligt, herunder personangreb, når du ikke kan finde på andre svar, ind i diskussionen.

Niels Madsen viser et hul i din argumentation, som du åbenbart ikke kan svare på, og så griber du - som vi ofte før har oplevet herinde fra folk, som vil forsvare tingenes tilstand og egne privilegier på dataområdet - til arrige personangreb.

Jeg ender med endnu engang at sidde med den ærgerlige fornemmelse, at du nok selv har noget i klemme på dataområdet, og at du derfor bliver ved med at forsøge at finde smuthuller udenom klare spørgsmål, såsom din holdning til, hvor det efter din mening er, at patienter og borgere ikke skal have ret til indsigt og samtykke (hvor mange gange er det, jeg har spurgt dig?), og hvorfor du mener, at der ikke skal gives samtykke til kvalitetssikring, når Niels Madsen direkte kan citere et sådant samtykke.

Du henviser selv til dine erfaringer fra dit hospital, men svarer ikke på, om du der direkte arbejder med forskning og data.

Vi diskuterer, hvordan lovgivningen bedst kan indrettes, så man som borger igen kan få tillid til det offentliges omgang med data. Jeg giver udtryk for, at der skal samtykke til f.eks. data hentet til kvalitetssikring fra privatpraktiserende læger. Så svinger du pludseligt med paragrafferne - som jo ikke har noget at gøre med, hvordan man mener, at loven skal være.

Så desværre sidder jeg igen med fornemmelsen af en "datagrib", som primært har vovet sig ind i kommentarfeltet for at forsvare sin syge moster, som forsøger sig med halvløgne om datasikkerhed og etik (som bl.a. Bjarne Nielsen hurtigt fik tilbagevist), som ikke er ærlig om sine holdninger, og som så bliver fornærmet, når han skal forsvare sine påstande.

Desværre er det sket utallige gange før - og det er i den grad med til at ødelægge tilliden, at man så tit sidder tilbage med en oplevelse af en "datagrib", som ikke spiller med åbne kort.

Ærgerligt - jeg troede langt hen ad vejen, at det endeligt skulle lykkes at kunne diskutere emnet ordentligt, og at vi andre ikke bare forventedes at lytte andægtigt til propagandamaskinen.

  • 5
  • 2
#44 Anne-Marie Krogsbøll

Peder Jensen:

Jeg er ved genlæsning af dit svar til Niels Madsen blevet i tvivl om, om det er ham, du omtaler som idiot, Britte Nielsen osv., eller om det er den, der har udformet det spørgeskema, han omtaler. Jeg opfattede det - som følge af din første sure linje i svaret - som det første - hvis det er det sidste, så tager jeg min kritik omkring personangreb tilbage - men jeg synes stadig ikke, at det er et ordenligt svar. For det, vi taler om, er, hvordan loven burde være. Og du undviger at svare på den del af det ved at smide en paragraf.

  • 3
  • 2
#48 Bjarne Nielsen

Tja, det er nemt at krybe i flyverskjul, hvis man mener at man har loven på sin side, men der kan være forskel på ret og rimeligt ... og hvis vi skal tro på vores samfundsmodel, så bør rimeligt kunne trumfe ret, i hvertfald på langt sigt.

Apropos rimeligt, så var der for nogen tid siden en nordmand (sikkert fra det norske datatilsyn, der jo godt tør have holdninger om rimeligt og ikke kun ret ... imodsætning til det danske), som gjorde opmærksom på, at samtykke til behandling ikke er samtykke til alt. Ja, faktisk, er der nok ville være tale om en gradueret skala (og her citerer jeg fra hukommelsen, som ikke er, hvad den har været, og har jeg desværre mistet linket):

  • mulighed for kontrol af egen behandling; populært sagt muligheden for at blive ringet op med ordene: "vi har kigget på dine oplysninger med den seneste viden, og vi skal lige have en snak".
  • afdelingens egen kvalitetskontrol
  • afdelingens egen metodeudvikling
  • tilstødende områder (f.eks. andre afdelinger på samme sygehus, og/eller nært liggende sygdomsområder)
  • kvalitetskontrol i det offentlige sundsvæsen generelt
  • administrative formål (optimering af ressourceallokering mv.)
  • forskning i det offentlige sundhedsvæsen generelt
  • anden offentlig national sundhedsrelateret forskning
  • anden offentlig forskning (f.eks. samfundsforskning)
  • international forskning
  • andres kommercialicering af viden, herunder at den vundne viden vil blive betragtet som privat ejendom aka. som "forretningshemmeligheder"

Pointen er ikke så meget de enkelte punkter, men at der jo nok tale om en skala, som har noget med nærhed at gøre, og at det er sikkert individuelt, hvor man befinder sig henne.

At man selv er en "all-in"-type gør ikke at man kan tillade sig at antage, at andre også er det. Og i mange situationer vil man nok blive mødt af spørgsmålet, om ikke mindre kunne gøre det ... banebrydende forskning forudsætter ikke nødvendigvis tvangsindrullering i nationale genom-databaser, men kan kaldes med repræsentative undersøgelser med n=5000. Det kan godt være, at det er ret at knytte indrulleringen er det nationale genom-register op på behandlingssamtykket, men er det rimeligt?

Samtidig skal man overveje, om ikke det kan have den modsatte virkning. Jeg blev for nyligt igen gjort opmærksom på historien om, hvordan en børnehave var træt af de få forældre, som altid kom for sent, så man indførte en mindre bøde. Det fik så rigtigt mange andre forældre til også at komme for sent, for den pris ville de gerne betale, nu hvor det var muligt, at betale sig fra det! På samme måde kan regler om tvungen medvirken sagtens have overraskende og uønskede effekter.

Lad mig til sidst kaste flg. ... øhm, kronik? ... fra The Guardian ind i diskussionen: "Will having longer, healthier lives be worth losing the most basic kinds of privacy?" - godt spørgsmål, vil jeg mene, og svaret er ikke nødvendigvis indlysende. Hvad er det værd, at livet bliver en smule længere, hvis resten af livet så til gengæld bliver meget anderledes (og måske endda ødelagt)?

  • 4
  • 0
#51 Peder Jensen

Jeg mener ikke det var dig der spurgte ?

Men svaret er ikke godt nok. Da forsknings data ikke nødvendigvis er behandlingsdata.

Hvis i syntes det er OK at patienter får ødelagt deres lever og i værste fald dør - så skriv det.

Men jeg vil megt gerne stadig have Thomas svar som formand for Patientdataforeningen - Du behøver ikke at svare :-)

  • 0
  • 3
#52 Anne-Marie Krogsbøll

Jeg mener ikke det var dig der spurgte

Nå da man er knibsk, hva'? Men nu er det sådan, at Thomas Birk Kristiansen faktisk har svaret på det dengang, så det er relevant at gøre opmærksom på, selv om du ikke kan lide svaret.

Hvis i syntes det er OK at patienter får ødelagt deres lever og i værste fald dør - så skriv det.

Kæmpe stråmand, som sædvanligt... det må være i mangel af gode svar.

Du behøver ikke at svare :-)

Det er meget nådigt af dig, men jeg svarer, hvis jeg har lyst.

Men svaret er ikke godt nok. Da forsknings data ikke nødvendigvis er behandlingsdata.

Det svar er heller ikke godt nok. Uddyb gerne, hvis det ikke er under din værdighed at forholde dig til datagrisenes opfattelse af tingene, og ikke kun dine fagfællers.

Og når du nu er i gang, kan du så ikke forklare, hvorfor det er forskere, som ikke har noget med patienternes behandling at gøre, som skal formidle denne nye behanding til dem? Hvorfor ikke bruge f.eks. Sundhedsdatastyrelsen elle egen læge? Eller offentlige oplysningskampagner?

  • 0
  • 0
#53 Peder Jensen

Formand Patientdataforeningen

Hej Thomas

Er det ikke rimeligt, at du som formand svarer på hvad jeres holdning er til nedenstående sag: Datalov blokerer behandling til 3.000 syge danskere: Minister lægger sig fladt ned

Du ved ligså godt som jeg, at forsknings data ikke nødvendigvis er behandlingsdata.

Endvidere, hvis det var behandlingsdata. Er det så i orden at lave udtræk af behandlingsdata med det formål ?

  • 0
  • 3
#54 Anne-Marie Krogsbøll

Ingen grund til at være "frontrunner" på dette felt, synes jeg: https://www.svt.se/nyheter/granskning/ug/ai-verktyg-skulle-spara-varden-...

Men der er jo nok nogen, der insisterer - for i sidste ende er det jo penge, ikke menneskeliv, det handler om. Jeg vil i den forbindelse henvise til min kommentar i går vedr. SSI-sagen: https://www.version2.dk/artikel/trods-henvendelse-datatilsynet-fortsatte...

  • 0
  • 0
Log ind eller Opret konto for at kommentere