Kendt filosof: AI-beslutninger kan løfte et tungt moralsk ansvar fra vores skuldre

Plus21. februar kl. 10:522
Kunstig Intelligens
Illustration: Ryzhi/Bigstock.
Algoritmiske beslutninger skaber etiske bekymringer om ansvarsplacering, bias og manglende gennemsigtighed. Men teknologien kan også fritage os fra moralske byrder, hvis vi bruger den klogt, siger den fremtrædende irske filosof John Danaher i dette interview.
Artiklen er ældre end 30 dage

Den irske filosof og forsker John Danaher har netop rundet afsnit nummer 100 i sin populære podcast Philosophical Disquisitions. Podcasten handler om etik og kunstig intelligens og har den lokkende undertitel Things hid and barr'd from common sense. Ting, der er gemt væk fra sund fornuft. Og det er netop derfor, vi gerne vil tale med ham. Fordi han undersøger noget af det, der ikke ligger lige for.

close
Gratis adgang i 30 dage
Tegn et gratis prøveabonnement og få adgang til alt PLUS-indhold på Version2 og Ingeniøren, helt uden binding eller betalingsoplysninger.

Alternativt kan du købe et abonnement.
remove_circle
remove_circle
Har du allerede et PLUS-abonnement eller klip?
Tak !
Vi har sendt en kvitteringsmail til .
Du bliver viderestillet til artiklen om få sekunder.
Dit medlemskab giver adgang
Som medlem af IDA har du gratis adgang til PLUS-indhold, som en del af dit medlemskab. Fortsæt med MitIDA for at aktivere din adgang til indholdet.
Oplever du problemer med login, så skriv til os på websupport@ing.dk
Abonnementsfordele
vpn_key
Fuld adgang til Version2 og Ingeniøren
Fuld digital adgang til PLUS-indhold på Version2 og Ingeniøren, tilgængeligt på din computer, tablet og mobil.
drafts
Kuraterede nyhedsbreve
Det seneste nye fra branchen, leveret til din indbakke.
Adgang til andre medier
Hver måned får du 6 klip, som kan bruges til permanent at låse op for indhold på vores andre medier.
thumb_up
Adgang til debatten
Deltag i debatten med andre kloge læsere.
2 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
2
21. februar kl. 16:01

Hvis man kan fordele resourcer efter objektive kriterier, er det også muligt at implementere et it-system, der står for fordelingen. Problemet ligger i at definere de objektive kriterier. Hvilke objektive kriterier kan vi formulere for tildeling af respiratorer i en mangelsituation? Overlevelseschance, forventet livstidsforlængelse, risiko for komplikationer/død måske. For at et it-system (med eller uden AI) kan vægte disse parametre, kræver det at vi enten tager en beslutning, eller vi har et træningssæt, hvor vægtene kan afledes fra.

Hvis vi har en fast algoritme med de forskellige vægte, tvivler jeg på at der er særlig meget skyld forbundet med at udføre algoritmen, uanset om det er et menneske eller en computer, der gør det. Dog er der en ekstra kontrol bygget ind når mennesker udfører algoritmen, da vores menneskelige intuition kan fange nogle åbentlyse uretfærdigheder (mangler i algoritmen), som AI ikke ville studse over.

Hvis resourcerne fordeles af mennesker uden definerede kriterier, lægger det givet et ansvar på den, der skal stå for fordelingen. Det samme gør sig gældende, hvis der indgår et element af skøn i fordelingen. Såfremt der kan defineres objektive kriterier for fordelingen, kan dette ansvar flyttes, til dem, der definerer kriterierne. Men tanken om at overlade det til en AI at definere kriterier, er absurd. AI er bare et muligt værktøj til at implementere en algoritme, men det fratager på ingen måde mennesker for ansvaret med at definere kriterierne.

1
21. februar kl. 15:46

Der mangler diskussionen af den afbalancerende effekt af ansvar.

Vi så hvordan Boeing kortsluttede testprocedurerne for at få deres MAX-version hurtigt solgt.

Det kræver ikke den store fantasi at forestille sig hvor mange af den slags beslutninger vi vil se, hvis man kan få ansvarsfrihed ved at henvise til en maskine.