AI-værktøjer til covid fejler totalt

2 kommentarer.  Hop til debatten
AI-værktøjer til covid fejler totalt
Illustration: Lasse Gorm Jensen.
Hundredvis af værktøjer med kunstig intelligens er blevet bygget til at fange covid. Ingen af dem virker, og flere er direkte skadelige.
17. august 2021 kl. 10:10
errorÆldre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Mange hundrede værktøjer, der med kunstig intelligens skal forudsige covid-infektion, virker enten ikke, eller er direkte skadelige.

Det er ifølge Technologyreview, Massachusetts Institute of Technology's nyhedsmedie, konklusionen på flere undersøgelser, som er offentliggjort i løbet af de sidste par måneder.

I juni udgav Turing Institute, som er Storbritanniens nationale center for datavidenskab og AI, en rapport, der opsummerer diskussioner på en række workshops, der blev holdt i slutningen af ​​2020. Den klare konsensus var, at AI -værktøjer havde haft ringe, om nogen, indflydelse i kampen mod covid.

Rapportens konklusion finder også genklang i to større undersøgelser, der vurderede hundredvis af prædikative værktøjer, der blev udviklet sidste år. Laure Wynants, som er epidemiolog ved Maastricht University og forsker i denne slags værktøjer, er hovedforfatter til den ene undersøgelse, som har set på 232 algoritmer til diagnosticering af patienter eller til at forudsige sværhedsgraden af sygdommen hos enkelte covid-patienter.

Artiklen fortsætter efter annoncen

Undersøgelsen fandt, at ingen af ​​dem var egnet til klinisk brug. Kun to er blevet udpeget som lovende nok til fremtidige test.

»Det er chokerende. Jeg gik ind i det med nogle bekymringer, men det overgik min værste frygt,« siger Laure Wynants til Technologyreview.

Den anden undersøgelse er fra University of Cambridge og fokuserer på anvendelsen af billeddiagnostik i forbindelse med covid. Her er konklusionen, at ikke én af ud af 415 værktøjer kan anvendes til klinisk brug.

Begge hold fandt ud af, at forskere gentager de samme grundlæggende fejl i måden, de træner eller tester værktøjerne på. Forkerte antagelser om data betyder ofte, at de trænede modeller ikke fungerer som påstået.

Artiklen fortsætter efter annoncen

Begge hold mener dog, at AI har potentiale til at hjælpe. Men de er bekymrede for, at det kan være skadeligt, hvis det bygges på den forkerte måde, fordi de kan overse diagnoser eller undervurdere risiko for sårbare patienter.

2 kommentarer.  Hop til debatten
Debatten
Log ind for at deltage i debatten.
settingsDebatindstillinger
2
17. august 2021 kl. 20:30

“I have not failed. I've just found 10,000 ways that won't work.”

At det ikke virker endnu betyder jo ikke at det ikke kan bringes til at virke.

1
17. august 2021 kl. 14:02

AI kigger på historik, historik og atter historik. Det er der bare ikke med Covid-19