Kendt filosof: AI-beslutninger kan løfte et tungt moralsk ansvar fra vores skuldre
Den irske filosof og forsker John Danaher har netop rundet afsnit nummer 100 i sin populære podcast Philosophical Disquisitions. Podcasten handler om etik og kunstig intelligens og har den lokkende undertitel Things hid and barr'd from common sense. Ting, der er gemt væk fra sund fornuft. Og det er netop derfor, vi gerne vil tale med ham. Fordi han undersøger noget af det, der ikke ligger lige for.
- emailE-mail
- linkKopier link

Fortsæt din læsning
- Sortér efter chevron_right
- Trådet debat
Hvis man kan fordele resourcer efter objektive kriterier, er det også muligt at implementere et it-system, der står for fordelingen. Problemet ligger i at definere de objektive kriterier. Hvilke objektive kriterier kan vi formulere for tildeling af respiratorer i en mangelsituation? Overlevelseschance, forventet livstidsforlængelse, risiko for komplikationer/død måske. For at et it-system (med eller uden AI) kan vægte disse parametre, kræver det at vi enten tager en beslutning, eller vi har et træningssæt, hvor vægtene kan afledes fra.
Hvis vi har en fast algoritme med de forskellige vægte, tvivler jeg på at der er særlig meget skyld forbundet med at udføre algoritmen, uanset om det er et menneske eller en computer, der gør det. Dog er der en ekstra kontrol bygget ind når mennesker udfører algoritmen, da vores menneskelige intuition kan fange nogle åbentlyse uretfærdigheder (mangler i algoritmen), som AI ikke ville studse over.
Hvis resourcerne fordeles af mennesker uden definerede kriterier, lægger det givet et ansvar på den, der skal stå for fordelingen. Det samme gør sig gældende, hvis der indgår et element af skøn i fordelingen. Såfremt der kan defineres objektive kriterier for fordelingen, kan dette ansvar flyttes, til dem, der definerer kriterierne. Men tanken om at overlade det til en AI at definere kriterier, er absurd. AI er bare et muligt værktøj til at implementere en algoritme, men det fratager på ingen måde mennesker for ansvaret med at definere kriterierne.
Der mangler diskussionen af den afbalancerende effekt af ansvar.
Vi så hvordan Boeing kortsluttede testprocedurerne for at få deres MAX-version hurtigt solgt.
Det kræver ikke den store fantasi at forestille sig hvor mange af den slags beslutninger vi vil se, hvis man kan få ansvarsfrihed ved at henvise til en maskine.