Ideer uge 38 | 2014

Etik. Når de selvstyrende biler kommer på vejene, vil de komme til at tage beslutninger, der gælder menneskers liv eller død. Hvem skal bestemme, hvordan bilerne programmeres til at vælge?

Af Martin Mose Bentzen Ph.d., Adjunkt I Videnskabsteori Management Engineering, Danmarks Tekniske Universitet

Bilens dilemma

De selvstyrende biler kommer. De kommer enten bragende i en regn af konfetti som google-bilerne, der allerede har kørt over en million kilometer på offentlige amerikanske veje uden fører, eller de kommer snigende som Mercedes’ nye intelligent drive, der ved hjælp af blandt andet kameraer og radarteknologi har gjort bilen til en »intelligent partner«. Det indebærer, at bilen kan give én advarsler og gode råd, men den kan også foretage »korrigerende handlinger«, hvis man gør noget forkert, hvilket i princippet betyder, at bilen i visse (nød)situationer vil tage beslutninger på ens vegne. Hvordan man end tvister det: Bilerne vil overtage styringen – til menneskets eget bedste, forstås.

De selvstyrende biler kommer, fordi den gammeldags automobil, der som navnet siger, er selvbevægende, men ikke selvstyrende, ud over at have været primus motor i en vigtig samfundsøkonomisk udvikling, også er den mest dødbringende private ejendel i omløb. Der er simpelthen god plads til forbedring, for mennesket er i trafikal sammenhæng et håbløst fejlbarligt væsen. Her taler vi kun trafiksikkerhed, og holder hele miljødiskussionen udenfor, hvilket i denne sammenhæng også er det fremherskende fokus hos de håbefulde bilproducenter. De håber på en sikring af privatbilismen langt ind i det 21. århundrede, både økonomisk og sikkerhedsmæssigt. Om privatbilismen også kan blive bæredygtig i forhold til miljøet, må udviklingen i blandt andet alternative brændstoffer vise.

Som det ofte sker med ny teknologi, kommer effektiviseringsdagsordenen til at fylde rigtig meget, mens de etiske aspekter ved teknologien bliver glemt eller underspillet. For bilerne tager jo beslutningerne til vores eget bedste, og hvis vi kan vise, at færre mennesker dør i trafikken, synes de allerede retfærdiggjort. Men det er ikke helt så simpelt. Den amerikanske filosof Patrick Lin har skrevet om etiske dilemmaer i forbindelse med selvkørende biler blandt andet ud fra filosofiens klassiske tankeeksperimenter. Det følgende eksempel er af denne type.

Man kan prøve at forestille sig, at en selvkørende bil kører rundt om et hjørne, og to cyklister kommer kørende lige imod den. Der er ikke tid til at stoppe, men ved at dreje kan bilen undgå at ramme den ene. Hvis bilen vælger ikke at gøre noget, vil begge cyklister blive ramt. Den ene cyklist har cykelhjelm på, den anden har ikke. Spørgsmålet er: Hvem bør bilen programmeres til at ramme?

Eksemplet viser, at ny teknologi giver nye variationer af gamle problemer. Et menneske i denne situation ville måske ikke have tid til lange etiske overvejelser, men den selvkørende bil kunne i princippet programmeres til at følge etiske principper. Spørgsmålet er så bare, hvilke etiske principper den bør følge?

Fra et konsekvens-etisk synspunkt, hvor det gælder om at øge lykken for flest mulige, bør det foretagne valg minimere smerten mest muligt i situationen. Sandsynligheden for et alvorligt uheld vil alt andet lige være større, hvis bilen kører ind i cyklisten uden hjelm, end hvis den kører ind i cyklisten med hjelm. Fra et konsekvens-etisk synspunkt vil det altså være moralsk korrekt at køre ind i cyklisten med hjelm.

Men ud fra en såkaldt deontologisk etik, hvor man undersøger motivet bag handlingen, ser tingene anderledes ud. Den mest berømte tænker af denne type er Immanuel Kant, og Kants kategoriske imperativ påbyder omsat til moderne sprog én at handle sådan, at man kan ønske, at de grunde, der motiverede en til handlingen, samtidig kan gælde som almen lov. Kan dette så ophæves til universel lov: I situationer, hvor mennesker uundgåeligt vil blive udsat for risiko, bør man handle således, at man udsætter dem med de bedste sikkerhedsforanstaltninger for størst risiko, da disse har størst chance for at klare sig uskadt ud af situationen. I en verden, der gjorde dette til lov, ville det være farligt at iføre sig sikkerhedsudstyr, og folk ville ikke turde tage hjelm på af frygt for at komme til skade. Dermed synes hele ideen om sikkerhed at blive modsagt, en vigtig etisk komponent i forbindelse med udvikling og brug af teknologi, ifølge den svenske filosof Sven Ove Hansson.

Ifølge denne etiske overvejelse synes det altså ikke at være tilfældet, at bilen skal vælge at ramme cyklisten med hjelm. Det kan måske virke kynisk overhovedet at vælge i en sådan situation. Nogle filosoffer mener, at det er uetisk overhovedet at lade maskiner tage beslutninger, der gælder menneskeliv, og at det undergraver respekten for menneskets værdighed, ikke mindst fordi maskiner ikke kan holdes ansvarlige eller føle empati. Men det virker også kynisk at køre begge cyklister over, fordi man ikke ønsker at lade maskiner træffe et valg. Ville det være mere retfærdigt at slå terning og lade det være helt tilfældigt, hvem der bliver ramt?

Eksemplet er tænkt, men der vil opstå situationer, hvor selvstyrende biler bliver nødsaget til at tage beslutninger, der gælder menneskers liv og død. Hvad hvis et barn er faldet på vejen? Bilen kan køre op på fortovet og redde barnet, og der er ingen på fortovet. Men der er en lille risiko for, at en person træder ud ad sin hoveddør i samme øjeblik og bliver kørt over. Bør bilen løbe denne risiko for at redde barnet? Hvis den vælger ikke at gøre det, er der også blevet taget et valg. Og hvad i det usandsynlige tilfælde, hvor en person træder ud ad døren og bliver slået ihjel? Hvem har ansvaret? Producenten af bilen? Bilens fører? Lovgiverne?

Det kommer vel i nogen grad an på, hvem der har bestemt, hvilke etiske principper bilen skal køre efter. Lin argumenterer imod at lade det være op til bilens ejer, og dette virker fornuftigt, men det bør vel heller ikke være op til bilproducenterne, som til tider lader profitmotivet veje tungere end hensynet til trafiksikkerheden? Skal det være op til et lovgiverne, måske i samarbejde med et organ som Etisk Råd? Hvordan skal samarbejdet mellem det politiske niveau og producenten etableres og evalueres?

Et sted at starte kunne være simpelthen at spørge folk. Tænketanken Open Roboethics Initiative ved University of British Columbia, Vancouver, Canada, har foretaget empiriske undersøgelser af Lins dilemmaer og relaterede emner. I en variation af cyklistdilemmaet, der involverede motorcyklister, og som gav de 40 informanter flere valgmuligheder end de to ovenfor, tegnede der sig følgende mønster: 30 procent mente, at bilen ikke skulle være programmeret til at kunne opdage, om en trafikant havde hjelm på eller ej. 10 procent mente, at bilen skulle køre ind i motorcyklisten uden hjelm. Kun to procent mente, at den skulle køre ind i motorcyklisten med hjelm. 10 procent valgte »andet«, mens 45 procent mente, at bilen blot skulle bremse og intet andet. Dette populære valg – eller afståen fra valg – kan nok være etisk forsvarligt i situationer med stor usikkerhed i udfaldet, men i eksemplet med cyklerne ville det resultere i, at begge blev ramt, hvilket ikke kan være etisk ønskværdigt. En anden undersøgelse bad i alt 113 informanter om at afgøre, hvem der skulle bestemme, hvordan bilen skulle indstilles rent etisk. Her ville 44 procent overlade det til føreren, 12 procent overlade det til producenten, og 33 procent overlade det til lovgiverne, mens 11 procent svarede »andet«.

Etik kan ikke begrænses til en måling af folks præferencer, såkaldt deskriptiv etik, men undersøgelser som disse giver vigtige fingerpeg til videre debat og grundigere filosofisk analyse. Det virker, som om der er en modvilje mod rent konsekvensetiske overvejelser og mod at lade maskiner træffe etiske valg.

Alt i alt kan vi konkludere to ting: Det ene er, at der er etiske problemstillinger i forbindelse med selvstyrende biler, der rækker ud over en simpel overholdelse af færdselsloven. Det bliver en opgave for både almindelige mennesker og fagfolk som filosoffer, ingeniører, politikere og jurister at håndtere disse problemstillinger. Det andet er, at hvordan vi end vender og drejer det, så vil der kunne opstå situationer, hvor selvstyrende biler skal tage beslutninger, der gælder liv og død. Der vil være situationer som cyklistdilemmaet, hvor et fravalg er et etisk værre valg end at handle.

Denne konklusion kan bredes ud til andre kategorier af sociale robotter. Skal den humanoide robot, som kommer forbi et barn, der er ved at drukne i en lav pøl, og som kan redde barnet uden at skade sig selv, undlade at gøre noget, fordi robotter ikke må tage beslutninger, der gælder liv og død? Hvis vi ikke ønsker denne udvikling, bør vi allerede nu helt forbyde selvstyrende b.