AI-værktøjer til covid fejler totalt

17. august 2021 kl. 10:102
AI-værktøjer til covid fejler totalt
Illustration: Lasse Gorm Jensen.
Hundredvis af værktøjer med kunstig intelligens er blevet bygget til at fange covid. Ingen af dem virker, og flere er direkte skadelige.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Mange hundrede værktøjer, der med kunstig intelligens skal forudsige covid-infektion, virker enten ikke, eller er direkte skadelige.

Det er ifølge Technologyreview, Massachusetts Institute of Technology's nyhedsmedie, konklusionen på flere undersøgelser, som er offentliggjort i løbet af de sidste par måneder.

I juni udgav Turing Institute, som er Storbritanniens nationale center for datavidenskab og AI, en rapport, der opsummerer diskussioner på en række workshops, der blev holdt i slutningen af ​​2020. Den klare konsensus var, at AI -værktøjer havde haft ringe, om nogen, indflydelse i kampen mod covid.

Rapportens konklusion finder også genklang i to større undersøgelser, der vurderede hundredvis af prædikative værktøjer, der blev udviklet sidste år. Laure Wynants, som er epidemiolog ved Maastricht University og forsker i denne slags værktøjer, er hovedforfatter til den ene undersøgelse, som har set på 232 algoritmer til diagnosticering af patienter eller til at forudsige sværhedsgraden af sygdommen hos enkelte covid-patienter.

Artiklen fortsætter efter annoncen

Undersøgelsen fandt, at ingen af ​​dem var egnet til klinisk brug. Kun to er blevet udpeget som lovende nok til fremtidige test.

»Det er chokerende. Jeg gik ind i det med nogle bekymringer, men det overgik min værste frygt,« siger Laure Wynants til Technologyreview.

Den anden undersøgelse er fra University of Cambridge og fokuserer på anvendelsen af billeddiagnostik i forbindelse med covid. Her er konklusionen, at ikke én af ud af 415 værktøjer kan anvendes til klinisk brug.

Begge hold fandt ud af, at forskere gentager de samme grundlæggende fejl i måden, de træner eller tester værktøjerne på. Forkerte antagelser om data betyder ofte, at de trænede modeller ikke fungerer som påstået.

Begge hold mener dog, at AI har potentiale til at hjælpe. Men de er bekymrede for, at det kan være skadeligt, hvis det bygges på den forkerte måde, fordi de kan overse diagnoser eller undervurdere risiko for sårbare patienter.

2 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
2
17. august 2021 kl. 20:30

“I have not failed. I've just found 10,000 ways that won't work.”

At det ikke virker endnu betyder jo ikke at det ikke kan bringes til at virke.

1
17. august 2021 kl. 14:02

AI kigger på historik, historik og atter historik. Det er der bare ikke med Covid-19