Test din egen etik mod den selvkørende bil

Hvem skal dø, hvis en ulykke er uundgåelig? Det er ét af problemerne for selvkørende biler, og et MIT-projekt udfordrer de lette svar i en online-test.

Skal du køre den gamle dame og den kriminelle ned, eller skal du køre ind i betonklodsen, så det kun er lægen og de tre katte, der dør?

Det er ét af de scenarier, MIT's Moral Machine online-test kan udsætte dig for (bemærk at billederne kan tage lang tid om at loade færdig). Den sætter dermed fokus på ét potentielt etisk dilemma, som programmører af software til selvkørende biler står over for.

Testen er en variant af et klassisk filosofisk problem, the Trolley Problem, som stiller spørgsmålet: Hvis du sidder i en sporvogn, der ikke kan stoppe, og er på vej til at køre fem mennesker ned, vil du så trække i et håndtag, der sender sporvognen over på et andet spor, hvor den kun vil køre en enkelt person ned?

Det etiske problem er især en udfordring af utilitarismen, der i sin grundform sigter mod at maksimere den samlede lykke i samfundet. For utilitaristerne er det oplagte svar, at vælge at ofre den ene person frem for de fem.

Eller som Spock og Kaptajn Kirk sagde det i Star Trek II: The needs of the many outweigh the needs of the few.

Det bliver straks mere kompliceret, hvis man tilføjer yderligere information til problemet, som eksempelvis, at én af de fem vil blive den nye Hitler. Denne stribe fra Existential Comics belyser fint, hvor langt ud man kan tage sporvognsdilemmaet.

MIT's test gør det tilsvarende svært at finde en oplagt løsning, der altid kan bruges på problemet. Skal man eksempelvis altid ofre de fodgængere, der går over for rødt, frem for dem, der går over for grønt, også selvom det så betyder, at bilen skal skifte vognbane?

Først mig selv

En undersøgelse foretaget af MIT og University of California, hvor folk blev bedt om at tage stilling til udvalgte varianter af dilemmaet, viste, at flertallet foretrak at redde dem selv, hvis de selv sad i den selvkørende bil, skriver Gizmodo.

Svaret på sporvognsdilemmaet er, at der ikke er noget let svar. Det er et etisk dilemma, hvor det altid vil være muligt at finde varianter, hvor ekstra information får dig til at ændre dit svar eller tvivle på dit tidligere svar.

Hvis man træder væk fra den utilitaristiske tilgang, så er et andet syn, at et menneskeliv ikke kan værdisættes. Skaden er så at sige uendelig stor, uanset om der bliver dræbt én eller fem personer.

Det taler for én af to løsninger, nemlig enten altid at ofre bilens passagerer, når ulykken er uundgåelig, eller altid at redde passagererne.

Det tætteste på et rigtigt svar er, som er at erkende ligesom den kunstige intelligens i Wargames-filmen, at den eneste måde at vinde på, er slet ikke at spille spillet.

For den selvkørende bil er et godt svar altså, at bilen altid skal forsøge at undgå at blive udsat for sporvognsdilemmaet. Det er ikke så fjernt, som det måske kan lyde, for det er dét, vi allerede gør med menneskelige chauffører, hvor hastighed og afstand altid skal tilpasses, så vi kan nå at bremse, hvis et barn løber ud på vejen, eller bilen foran os pludselig bremser.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (16)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Jacob Christian Munch-Andersen

Det er efterhånden et gammelt retorisk problem. Hvordan skal en selvkørende bil vælge hvem den slår ihjel? Det lyder vel nok relevant, og etisk, og vigtigt.

Virkeligheden er at det er ekstremt sjældent at der er et egentligt valg. Generelt vil vi forvente at selvkørende biler laver meget færre ulykker end dem med mennesker bag rattet, og når de er involveret i ulykker vil problemet altovervejende være at de mangler information, enten fordi sensorene har fejlet, eller fordi informationen kom for sent, eksempelvis i form af en anden trafikant som skifter hastighed.

I de få tilfælde hvor der faktisk er et valg bør bilen forsøge at undgå bløde trafikanter, da bil-til-bil sammenstød typisk fører til mindre personskade. I den ekstremt usandsynlige situation hvor dette ikke er muligt bør bilen følge vejen, det er det mest forudsigelige mønster, det gør det lettest for fodgængere selv at flytte sig.

Der vil givetvis opstå situationer hvor vi bagefter konstaterer at bilen burde have opført sig anderledes, det bliver ikke til et etisk dilemma af den grund, det er blot data som kan bruges til at forbedre styreprogrammet.

  • 15
  • 0
Bent Jensen

"Der vil givetvis opstå situationer hvor vi bagefter konstaterer at bilen burde have opført sig anderledes, det bliver ikke til et etisk dilemma af den grund, det er blot data som kan bruges til at forbedre styreprogrammet."

Så er det etisk i hvordan du som programør vælger for andre. Personer i bilen er jo også passager.

Men hvis man skal vælge så må pasagerne i bilen ofres først, da de "skyldig" i ulykken. I det de kunne have valgt ikke at køre bil.

  • 0
  • 8
Michael Thygesen

Der vil givetvis opstå situationer hvor vi bagefter konstaterer at bilen burde have opført sig anderledes, det bliver ikke til et etisk dilemma af den grund, det er blot data som kan bruges til at forbedre styreprogrammet

Enig. Og hele præmissen for de her etiske dilemmaer er at man ignorerer al kontekst. Hvor tit er det lige en menneskelig chauffør kommer i en situation som beskrevet, uden at have indtaget stoffer først? Hvorfor er der grund til at tro at en maskine vil havne i den situation, uden at der foreligger andre fejlvurderinger først?

Du rammer enten væggen og dør, eller du rammer fodgængerne og de dør! Ja, eller jeg spoler 5 minutter tilbage og lader være med at køre med lukkede øjne, således at dilemmaet ikke opstår.

  • 5
  • 1
Patrick Moog

Det er efterhånden et gammelt retorisk problem. Hvordan skal en selvkørende bil vælge hvem den slår ihjel? Det lyder vel nok relevant, og etisk, og vigtigt.

Virkeligheden er at det er ekstremt sjældent at der er et egentligt valg.

Nu ved jeg ikke om du er udvikler, men det er jo netop disse cases der skal tages hånd om. Når du tester en metode kigger du jo heller ikke på de "normale" inputs, men "corner cases". Jeg ved ikke om du synes at når udvikleren kommer dertil i sin kode, at han blot skal trække på skuldrene?

Man kan måske argumentere for at der skal benyttes en form for fuzzy logic, men det bliver bare rigtig svært at forklare retten hvorfor bilen gave mulighed 1: 0.48 mens mulighed 2: fik 0.87

Edit: På den anden side kan man sige at fuzzy logic næsten altid er det der bliver brugt i retten hvor der ikke er 100% bevis :)

  • 4
  • 3
Kevin Johansen

Hvis det er programmørens etik / livssyn, der reelt ligger til grund for bilen kørsel...implicerer det så ikke, at programmøren er ansvarlig i juridisk forstand (altså, reelt er føreren af bilen)?

En ting er det tekniske, men jeg savner VIRKELIG snart at lovgivere (jurister) verden over får taget hul på den her problemstilling. Når de første 10000 selvkørende biler er på vejene er det for sent.

+1 for Wargames ref :)

  • 2
  • 1
Stig Ingerslev

Det kunne jo også være, at der åbnede sig nye mulighed, f.eks. at man kan advare via højttaler eller lign., når man har en idé om hvad der er ved at ske eller måske kunne bilen aktivere en slags airbag eller lign, som kan "gribe" fodgængere.
Det er jo tilladt at tænke lidt ud af boksen, fremfor blot at automatisere eksisterende teknologi.

  • 0
  • 0
Henrik Eriksen

Hvorfor skal den her hest trækkes af stalden hele tiden?

Når den selvkørende bil er en realitet, vil der stadigvæk stå grædende ægtefæller og forældre til børn der er omkommet i trafikuheld, som forbander den førerløse bil langt ned i Helvede.
Men hvis bilerne ikke bliver førerløse, så vil der stå ti gange så mange - hvis ikke flere.

Det er et faktum at en computer i en selvkørende bil reagerer langt hurtigere end noget menneske, og samtidig har en observationsradius på 360 grader. Højresvingsulykker kommer til at høre fortiden til.

Alle de her opstyltede, fortænkte situationer, hvor computeren i bilen skal vurdere alderen på børnene inden den vælger hvilken børneflok den skal køre ind i, eller vælge mellem fire pensionister eller to teenagere, er jo komplet nonsens.

Bilen skal bare undgå at slå nogen som helst ihjel. Og kan den ikke det, fordi det ikke kan undgås at ramme et eller flere mennesker, så skal den bare klodse bremserne så skaden bliver mindst mulig.

Længere er den ikke, og der er ikke nogen 'etiske problemer' her.

Det eneste 'etiske problem' der er omkring bilkørsel er i dag, hvor man lader et humørmæssigt ustabilt individ med svingende koncentration føre et køretøj som kræver 100% opmærksomhed fra chaufførens side på hele turen.

  • 10
  • 2
Peter Kyllesbeck

Du rammer enten væggen og dør, eller du rammer fodgængerne og de dør! Ja, eller jeg spoler 5 minutter tilbage og lader være med at køre med lukkede øjne, således at dilemmaet ikke opstår.


Det minder mig om et eksempel fra teoriprøverne, hvor man tydeligvis er kommet for tæt på en forankørende og hvor et rigtigt delsvar er, at man bremser for at øge afstanden.
Den erfarne bilist ville aldrig have bragt sig i den situation. ( mange uerfarne gør det dog)

  • 0
  • 1
Jacob Christian Munch-Andersen

Nu ved jeg ikke om du er udvikler, men det er jo netop disse cases der skal tages hånd om. Når du tester en metode kigger du jo heller ikke på de "normale" inputs, men "corner cases". Jeg ved ikke om du synes at når udvikleren kommer dertil i sin kode, at han blot skal trække på skuldrene?


Det du her snakker om er de normale exceptionelle hændelser, altså dem som faktisk opstår. De der etik-spørgsmål-ting omhandler situationer som er så usandsynelige at du kan sende en million biler på gaden, og der vil sandsyneligvis ikke opstå en eneste situation i den kategori. Det er spild af tid at skrive kode specielt til disse situationer, den normale styring vil vælge hvad den finder er den mindst ringe mulighed, og det er sandsynligvis et relativt godt valg.

Man kan måske argumentere for at der skal benyttes en form for fuzzy logic, men det bliver bare rigtig svært at forklare retten hvorfor bilen gave mulighed 1: 0.48 mens mulighed 2: fik 0.87


Hvis der er logdata (og det ER der), så skulle det være til at forklare, der er en logisk sammenhæng hele vejen igennem programmet.

  • 3
  • 0
Thomas Dybdahl Ahle

Selvfølgelig skal biler først og fremmest undgå at dræbe nogen somhelst. Derfor er det stadig interessant data MIT samler her.

Min egen algortime var følgende skridt, I prioteret rækkefølge:
Dræb dyr over mennesker
Dræb passagerer over fodgængere
Dræb din egen vejbane over den anden.
Dræb færre mennesker hellere end flere.
Dræb gamle før unge.

  • 0
  • 3
Henrik Eriksen

Det er da simpelt: Man dividerer aldrene op i antallet af individer:

På den måde får man at 'flere' er mere værd end 'få', samtidig med at man får taget hensyn til at 'yngre' er mere værd end 'ældre'.

Så når bilen skal vælge mellem at køre 2 teenagere (på f.eks. 14 år) over, eller at tromle 5 fyrreårige ned, så kan den hurtigt regne ud hvad der er foretrukket:
2/14 = 0,143 og 5/40 = 0,125. Største resultat 'vinder', så de fyrreårige skulle have inviteret én mere med på deres gåtur. Så havde de givet resultatet 0,15 og teenagerne havde røget cigaren i stedet for.

  • 0
  • 0
Patrick Moog

Det du her snakker om er de normale exceptionelle hændelser, altså dem som faktisk opstår. De der etik-spørgsmål-ting omhandler situationer som er så usandsynelige at du kan sende en million biler på gaden, og der vil sandsyneligvis ikke opstå en eneste situation i den kategori.


Nej, jeg mener faktisk de tossede usandsynlige hændelser, for de sker også, specielt i en verden med ~1000.000.000 biler hvor rigtig mange af dem bliver selvkørende de næste 10-20 år
Du ved Murphys lov osv.

  • 0
  • 4
Henrik Eriksen

Nej, jeg mener faktisk de tossede usandsynlige hændelser, for de sker også, specielt i en verden med ~1000.000.000 biler hvor rigtig mange af dem bliver selvkørende de næste 10-20 år
Du ved Murphys lov osv.

Jeg synes det er i orden at tænke over disse 'tossede usandsynlige hændelser', men hvis man ikke lige kan finde en løsning bør det på ingen måde spænde ben for selvkørende biler.

Man kan starte med at overveje, hvordan en menneskelig chauffør ville håndtere samme situation: Vil et menneske kunne nå at overveje mulighederne, og omhyggeligt styre ind i den menneskegruppe der er 'mindst' værd?

Det tror jeg ikke! Når en bilist pludseligt bliver overrasket over noget der pludseligt kommer ud foran hans bil, vil automatreaktionen være at bremse og styre udenom. Og så kan han sagtens komme op på fortovet og ramme en flok børnehavebørn - mens hans forsøgte at undgå at kollidere med en enkelt pensionist.

  • 1
  • 0
Bent Jensen

TIt at prøve på at undgå at ramme mennesker eller ting hvis de styrter ned.
Men det er jo måske også fordi de selv, samt deres passagere sikkert også dør ved dette.

Hvis et stort fyldt passager fly er ved at nødlande, og kun har valget mellem en mortorvej, hvor de fleste sikkert overlever, eller en skov ved siden af hvor de fleste sikkert dør.
Hvor mange biler og mennesker skal der så befinde sig på vejen før man vælger skoven, eller skal man altid vælge vejen ?
Vi er jo også på vej til føre løse fly, droner og skibe, selv om det nok tager lidt tid før der er passager i dem. Så der er mange etisk dilemmer der skal løses. Og mange dilemmager der ikke skal løses af en enkelt programør.

De personer der mener at det bare løser sig selv, at det er programøren opgave at vælge dette, eller at det ikke er et problem. De har ikke forstået ret meget.
Så jeg håber ikke at der er nogen af de mennesker, der bliver dem, der skal programere de biler jeg møder i trafiken,.

  • 0
  • 0
Log ind eller Opret konto for at kommentere