Zaterdag 24/08/2019

Moreel dilemma

We moeten zelfrijdende wagens programmeren om te doden

Het prototype van een zelfrijdende auto van Google. Beeld PHOTO_NEWS

Nu een toekomst met zelfrijdende auto's echt concreet wordt, wordt het tijd om eens stil te staan bij de potentiële ethische keuzes die zulke 'robots' op de weg zullen moeten kunnen maken. Want wat moet zo'n zelfrijdende auto bijvoorbeeld doen in het geval van een onvermijdelijk ongeval? Wie blijft leven, wie moet er dood?

Volgens de 'Back to the Future'-films leven wij momenteel in de toekomst en de makers zouden wel eens gelijk kunnen hebben gehad. Want alleen in een futuristische, in hightech gedrenkte wereld kan je je zulke ethische dilemma's voorstellen als het volgende:

Stel dat jij binnen afzienbare tijd een zelfrijdende wagen hebt. Op een dag rijd je ermee rond, maar door opeenvolging van ongelukkige voorvallen rijdt de wagen recht op een groep van een tiental mensen af die de straat aan het oversteken zijn. De auto zal niet meer op tijd kunnen stoppen, maar zou wel de dood van die tien mensen kunnen vermijden door zelf het stuur om te gooien en tegen een muur langs de kant van de weg te knallen. Door die botsing zou je zelf wel om het leven komen. De vraag is: wat moet de wagen kiezen? Of anders gesteld: hoe moet de auto geprogrammeerd worden?

Je zou heel eenvoudig kunnen redeneren: hoe minder slachtoffers, hoe beter. Maar in dat geval programmeer je een zelfrijdende auto dus om zijn eigenaar op te offeren. Omdat het erg beangstigend is om een auto te kopen waarvan je weet dat die jou zal doden als hij in een vergelijkbare situatie terechtkomt, lijkt het waarschijnlijk dat de verkoop van zelfrijdende wagens nooit echt van de grond zal komen. Maar in dat geval zullen er meer mensen in het verkeer sterven als gevolg van de 'menselijke' fouten die zij blijven maken met hun traditionele auto's. Lees: door de technologische vooruitgang gewoon links te laten liggen, heb je nog altijd geen zekerheid dat je levens kunt sparen.

Een Google-medeweker doet dienst als levend obstakel bij de tests met Googles zelfrijdende prototype. Beeld REUTERS
Een medewerker van Mitsubishi Electric test een zelfrijdende concept car, de EMIRAI3 xAUTO. Beeld REUTERS

Eigenbelang versus het algemeen belang

Tijd om dat eens voor te leggen aan een grotere groep mensen, zo dachten wetenschappers van de Toulouse School of Economics. Enkele honderden proefpersonen moesten zich het hoofd breken over dergelijke ethische dilemma's in drie experimenten. Telkens kregen ze scenario's op hun bord waarbij ze een bepaalde hoeveelheid voetgangers konden redden door bijvoorbeeld tegen een muur te knallen (waarbij jij, de chauffeur, zou sterven) of tegen een andere voetganger te botsen (waardoor die zou omkomen).

De meeste mensen kozen, enigszins voorspelbaar, voor de situatie van 'het laagste aantal dodelijke slachtoffers'. Anders gesteld: mensen kunnen ermee leven als de auto geprogrammeerd is om de dodentol zo laag mogelijk te houden. De vraag of die ethische keuze voor zelfopoffering ook bij wet moest worden vastgelegd, lag plots al een pak gevoeliger voor heel wat respondenten. Toch wilden er meer mensen in meegaan als die wet enkel zou gelden voor de wagens zelf (en dus niet voor de chauffeurs).

Wat ook opviel: de deelnemers aan de test bleken er achteraf zelf niet van overtuigd dat ze ooit zelf met een zelfrijdende auto zouden rondtuffen. Ze losten dus hun morele dilemma eigenlijk niet op door zichzelf in de rol van chauffeur te verplaatsen, maar wel door volgens het 'algemene belang' te redeneren. Eigenbelang is makkelijk opzij te schuiven, tot je zelf in die situatie zit. Dat is de grote moeilijkheid voor de makers van de makers van zelfrijdende auto's: "Eigenbelang zou aanvankelijk [het succes van] zelfrijdende wagens kunnen fnuiken", concluderen de onderzoekers. Maar, zo voegen ze er optimistisch aan toe: "Er zouden wel snel sociale normen gevormd kunnen worden die de opkomst van die wagens sterk kunnen begunstigen."

Een aantal morele keuzes op een rij, in het geval van een onvermijdbaar ongeval met een zelfrijdende wagen. Beeld rv

Moreel doolhof

De onderzoekers benadrukken ook dat ze de situaties momenteel wel erg zwartwit hebben voorgesteld. Want als je echt realistische situaties creëert, zijn de keuzes lang niet zo eenduidig. Om niet te zeggen dat we nog maar aan de ingang staan van een heus moreel doolhof.

Voorbeelden legio, zo schrijven de wetenschappers: "Is het aanvaardbaar dat een zelfrijdende wagen een motorfiets ontwijkt door tegen een muur te botsen, in de redenering dat de autobestuurder meer kans heeft te overleven dan de motorrijder?"

Of wat met deze? "Moeten er andere beslissingen gemaakt worden wanneer er kinderen aan boord zijn, omdat die nog langer te leven hebben dan volwassenen en omdat ze sowieso al minder zeggenschap hadden in hun aanwezigheid in de auto?"

En om helemaal in de ethische soep te belanden: "Als een autobouwer verschillende versies aanbiedt van zijn morele algoritme, en de koper in zijn volle bewustzijn voor een bepaald moreel algoritme kiest, is de koper dan schuldig aan de schadelijke gevolgen van de beslissingen van het algoritme?"

En zo zal er nog veel water naar de zee moeten vloeien vooraleer we ons met een gerust gemoed op de weg wagen met een zelfrijdende auto. Of zoals de onderzoekers van de Toulouse School of Economics concluderen: "Als het gaat om morele beslissingen die je in een halve seconde moet maken, zou het wel eens goed kunnen dat mensen veel meer van machines verwachten dan van elkaar."

Meer over

Wilt u belangrijke informatie delen met De Morgen?

Tip hier onze journalisten


Op alle verhalen van De Morgen rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar info@demorgen.be.
© 2019 MEDIALAAN nv - alle rechten voorbehouden