Forskning: Kunstig intelligens identificerer genetiske sygdomme bedre end læger

Illustration: Bigstock
Deep Learning-teknologien DeepGestalt kan identificere sjældne genetiske sygdomme baseret på fotografier. Forskerne advarer om potentiale for misbrug.

Deep Learning-algoritmer kan identificere en lang række genetiske sygdomme baseret på fotografier af patienters ansigter. Endda bedre end klinikere, viser ny forskning.

Det skriver CNN.

Teknologien kaldet DeepGestalt var bedre end klinikerne til at identificere en lang række syndromer i tre forsøg ifølge forskningsartiklen, der blev udgivet i Nature Medicine mandag.

Muligheden for at spotte syndromerne udelukkende baseret på fotografier skyldes, at en lang række genetiske sygdomme blandt andet kommer til udtryk i individers ansigtstræk.

Og tidligere forskning har vist, at ansigtsanalyse-teknologier kan identificere syndromer lige så godt som klinikere med ekspertise i syndromidentifikation.

Her har der dog kun været tale om få syndromer og små datasæt, mens DeepGestalt ifølge forskningsartiklen er blevet trænet med 17.000 billeder, der repræsenterer mere end 200 forskellige syndromer.

Læs også: Microsoft: Nødvendigt at indføre etiske principper for brug af ansigtsgenkendelse

»Det demonstrerer, hvordan man succesfuldt kan bruge den nyeste form for algoritmer, som deep learning, i et udfordrende felt, hvor datamængden er lille, ubalanceret i forhold til tilgængelige patienter per sygdom, og hvor behovet for at kunne håndtere en stor mængde sygdomme er stor,« siger Yaron Gurovich, CTO ved virksomheden FDNA, som ledte forskningen.

Forskerne advarer dog også imod, at den lette tilgængelighed af fotografier muligvis vil føre til en situation, hvor arbejdsgivere og andre kan udnytte teknologien til at diskriminere på baggrund af sandsynligheden for, at et individ lider af en bestemt sygdom.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (8)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Anne-Marie Krogsbøll

"Forskerne advarer dog også imod, at den lette tilgængelighed af fotografier muligvis vil føre til en situation, hvor arbejdsgivere og andre kan udnytte teknologien til at diskriminere på baggrund af sandsynligheden for, at et individ lider af en bestemt sygdom."

Jeg giver ikke meget for disse pligtskyldige advarsler, for hvad vil man gøre - det er umuligt at styre, når katten først er sluppet ud af sækken?

Herhjemme har man allerede i flere år forsket i diagnosticering af genetiske sygdomme via ansigtsfotos - det glider råt igennem det videnskabsetiske system - ingen betænkeligheder - der kigger man kun på, om projekterne overholder formelle krav - ikke på om de faktisk er etisk forsvarlige.

Hvad skal det gøre godt for? I mine øjne er dette et eksempel på forskning, som ikke burde være tilladt - det skaber flere problemer, end det løser. For man kan jo finde disse sygdomme med andre metoder, og diagnosticering via fotos er pga. AI og diverse samkøring med databaser og med sociale medier at åbne "a can of worms". - Pandoras æske.

Forskningen er år foran lovgivningen - og lovgivningen indhenter aldrig de problemer, som forskningen skaber på AI- feltet, for det vil kræve, at lovgivnningen er på forkant, og det er der ikke politisk vilje til. At begynde at være på forkant, kunne jo spænde ben for de mange pengeinteresser, som magthavende politikere er så forelskede i.

Det er til at få mareridt over....

Anne-Marie Krogsbøll

Hvordan får man dog folk til at medvirke til det? Hvor får man data fra?


De data har man adgang til via bloddonering og diverse adgang til sundhedsdata via forskningstilladelser.
https://bloddonor.dk/dbds/forskning/
https://bloddonor.dk/det-danske-bloddonorstudie/

Indtil for nylig har man på hjemmesiden kunnet læse beskrivelsen af en del underprojekter, herunder projektet, som hedder: "3D billedindsamling", som netop har som formål at kunne diagnosticere genetiske sygdomme (som efter projektets opfattelse bl.a. omfatter psykiske sygdomme som skizofreni -hvilket ikke alle fagfolk er enige i) via ansigtsfotos. Beskrevet formål: "At undersøge sammenhængen mellem 3D-ansigtsmorfologi og genetisk variation. " (aktindsigt i projektbskrivelsen). *
*"Vision
At udvikle et klinisk redskab baseret på antropometriske målinger til identificering af personer i risiko for udvikling af genetisk-betinget sygdom "

Omtalen af dette projekt er nu - så vidt jeg kan se - fjernet fra hjemmesiden, og man kan jo gisne om, at man har set i øjnene, at det er for kontroversielt, så det må hellere holdes hemmeligt. Hvilket i den grad strider mod de fra offentlig side evindelige løfter om åbenhed og transparens omkring anvendelsen af vore sundhedsdata.

Hvis man læser denne ph.d,
http://orbit.dtu.dk/files/89834062/phd319_Fagertun_J.pdf fremgår det flere steder, at den har forbindelse, bla. finasiering og data , til bl.a. DBDS og et forskningprojekt, "Novel Drugs and Diagnostic Tools" i samarbejde gennem Innovationsfonden med Thomas Werge, Lundbeck a/s og deCode Genetics. Jeg har forsøgt via aktindsigter at få indblik i, hvad dette samarbejde har indebåret, men både DTU, Thomas Werge og Innovationsfonden benægter oplysningerne i ph.d-en om denne forbindelse, og kalder det skrivefejl.

https://www.dtu.dk/english/News/2014/04/Danish-research-leads-facial-ana...

Kan man gentagne gange i en ph.d, som jo må formodes at skulle holde et vist videnskabeligt niveau, lave "skrivefejl" omkring, hvor man har sin finansiering og sine data fra? Det omtales i øvrigt også, at man har en del af sine data (ikke dem alle) fra 40 000 ansigtsfotos fra LinkedIn-profiler. Jeg har ikke kunnet få et fornuftigt svar fra DTU omkring lovligheden af dette.

Lundbeck a/s pudsede juristerne på min anmodning om aktindsigt , hvorefter Innovationsfonden mørklagde store dele af materialet som forretningshemmeligheder".

Innovationsfonden, som skulle føre tilsyn med projektet, opgav i følge aktindsigt i nogle mødereferater meget hurtigt at følge med i de visionære luftlag, som Werge, Lundbeck og deCode bevægede sig i, og valgte bare at stole på, at de vidste, hvad de gjorde.

Jeg har ikke kunnet få opklaret, hvad der sidenhen er blevet af resulaterne - om de er blevet brugt sidenhen. Men Werge forsker nu bl.a. i sammenhæng mellem skizofreni og afstamning fra neanderthal.
https://www.sciencedaily.com/releases/2016/08/160815064944.htm

Jeg kan ikke gennemskue, om forskningen i ansigtstræk kan tænkes at kunne bruges i denne sammenhæng, men jeg er ikke tryg ved denne forskning, som netop kan komme bekymrende tæt på frenologi.

Ditlev Petersen

Hvis katten er nem at opfinde, så hjælper det ikke meget, at forskergruppe A undlader det, for der vil være andre grupper i gang andre steder. Så alene den praktiske mulighed slipper katten ud af sækken. Hvis altså man har en samling portrætfotos, der kan forbindes med "spændende syndromer".

Det gør mig ikke mindre bekymret. Altså det er jo første skridt på endnu en omgang "eugenik" - rent bortset fra at det bliver et filter i ansættelssesprocedurerne. Vi kan forbyde det, men det vil ingen effekt have.

Anne-Marie Krogsbøll

Nej, du har ret, Ditlev Petersen - det er svært at se en løsning. Men man burde i det mindste have diskussionen på politisk niveau, og en start kunne være, at man via lovgivning begyndte for alvor at give folk mulighed for at modsætte sig, at deres private data bruges på den måde - for hvad skal AI så leve af? Man kunne gøre det ulovligt. Hvorfor skal vore danske forskere have snablen i den pulje til det formål? Det behøver vi jo ikke at give dem tilladelse til. Det burde være de videnskabsetiske komiteers opgave at sige nej, men de er sammenspiste, de dukker nakken og lader den ene hånd vaske den anden i disse sammenhænge.

Og nu har vi oven i købet regeringens ord for, at uønsket overvågning - som indsamlingen af vore sundhedsdata uden samtykke jo er - er en form for psykisk vold. Det glæder mig, og jeg synes jo, at den erkendelse burde kunne anvendes på sådanne projekter - men jeg gætter på, at de hurtigt får kolde fødder på det punkt.

Claus Wøbbe

Jeg synes der er et for snævert fokus på "pengeinteresser" og virksomheders potentielle mulighed for at filtrere folk ifm. ansættelser. Det er da de mindste problemer.

I Kina er det selveste staten, der bruger alle mulige kriterier for at sortere og filtrere folk og tildele goder til de, der lever op til statens (=kommunistpartiets) kriterier. Denne institutionaliserede brug af AI er da et langt, langt større problem end at man kan risikere at få et afslag på en jobansøgning, fordi man lider af skitzofreni.

Desuden er det altså som at tisse i bukserne en kold vinterdag at forbyde denne forskning. I Kina buldrer de derudaf med forskningen i AI baseret på alle mulige data, hentet fra det offentlige rum. Vi kan i Danmark godt indtage en frelst holdning og sætte os hen i hjørnet og kigge på, men det forhindrer ikke evt. uhensigtsmæssige sider af AI i at blive frembragt.

Der er i høj grad brug for at man som udgangspunkt internationalt diskuterer de etiske aspekter af bl.a. AI. Og ja, det lyder ikke som en løsning, og er det jo heller ikke, men det er da i hvert fald en nødvendighed.

Jakob Skov

Det er i udgangspunkt bekymrende hvor meget vil udlede af ansigtsgenkendelses-teknologi uden omtanke for hvad man bør.

Eugenik er desværre allerede en meget reel mulighed.
Idag starter den ved foster-prøver i 1 måneds nyfødte og så har man ellers 2 måneder til at stoppe det hvis barnet ikke er drømmen. Faderen kan også snildt bestemmes og tages med i abort-overvejelser inden snittet på 3 måneder...
Den teknik man har her er potentielt sæd- og æg-donor-relevant i forbindelse med kunstig beftrugtning, hvis man vil føde et overlegent menneske... Ja, pseudonym donation er standarden, men ofte kan alt lade sig gøre hvis man er villig til at rejse til steder hvor loven er mindre restriktiv eller mindre overholdt.

Log ind eller Opret konto for at kommentere