Maandag 22/07/2019

Killerrobots

Waarom oorlogen door robots laten uitvechten geen goed idee is

Een beeld uit de film 'Chappie' (2015) waarin een zelflerende politierobot onder invloed van criminelen op het slechte pad raakt. Beeld RV

Als het van 116 wereldexperten op vlak van robotica en artificiële intelligentie afhangt, stoppen we liever vandaag dan morgen met het ontwikkelen van killerrobots. Eens ze bestaan, zullen gewapende conflicten op een grotere schaal dan ooit tevoren worden uitgevochten. 

De Samsung SGR-A1 is niet de allernieuwste smartphone van het Zuid-Koreaanse merk, maar hoogtechnologisch afweergeschut dat de Zuid-Koreanen moet helpen om de 4 kilometer brede bufferzone tussen Noord- en Zuid-Korea te kunnen controleren. Het kaliber was de eerste in zijn soort die autonoom de omgeving kan scannen, stemmen herkent, en indien nodig reageert met een granaatlanceerder of een machinegeweer. Wie zich binnen die zone wil begeven, denkt dus best twee keer na.

Het klinkt als een extreme maatregel in een extreem conflict, maar volgens Human Rights Watch zijn ook de Verenigde Staten, China, Rusland en het Verenigd Koninkrijk volop bezig met het ontwikkelen van autonome wapensystemen.

Keukenmateriaal

"We hebben niet veel tijd meer. Eens de doos van Pandora geopend is, zal die moeilijk te sluiten zijn." De waarschuwing voor killerrobots in een open brief van de 116 pioniers uit 26 landen onder leiding van Teslabaas Elon Musk en Mustafa Suleyman, mede-oprichter van Google DeepMind, dat gespecialiseerd is in kunstmatige intelligentie, lijkt al praat voor de vaak.

Automatisering en technologische evolutie hebben al langer een invloed op hoe oorlogen worden uitgevochten. Koen Troch, adjunct professor aan de Koninklijke Militaire School verwijst naar de antipersoonsmijn die tijdens de Eerste Wereldoorlog veel gebruikt werd. "Wanneer iemand over de mijn liep, zorgde de drukplaat voor de ontploffing." Vandaag is het helemaal niet moeilijk meer om met behulp van verschillende sensoren en technologieën andere wapens te automatiseren. "Met wat explosieven, huis-, tuin- en keukenmateriaal en een drone kan je al een redelijk effectief wapen maken."

Hoe dodelijk ook, van echte killerrobots kan je dan nog niet spreken. "De echte vraag die je moet stellen is: zit er nog een mens in het beslissingssysteem of niet?", zegt Nathalie Van Raemdonck, die werkt bij het Centrum voor Cybersecurity België (CCB) en onderzoek deed naar Lethal Unmanned Aerial Vehicles, of killerdrones. Beslist een computer of een mens om een andere mens al dan niet neer te schieten?

Morele afstand

"Oorlog is voor een stuk ethiek", zegt Van Raemdonck, ze verwijst daarvoor onder andere naar de Geneefse Conventies waarin duidelijk bepaald wordt hoe je omgaat met strijdkrachten en burgers tijdens gewapende conflicten. "Je kan je de vraag stellen of je die regels niet overtreedt als je robots zelf of van op afstand conflicten laat uitvechten. Waar zit de precieze dreiging die het geweld verantwoordt dan nog?" Een robot kan strategische keuzes maken, maar heeft geen flauw idee welk menselijk leed hij veroorzaakt.

Die empathie voor menselijk leed is volgens Mark Coeckelbergh, techniekfilosoof aan de universiteit van Wenen, ook niet te programmeren. Zelfs bij soldaten die vanop een afstand ageren, handelen anders dan een soldaat die middenin een oorlog zit. "Toen de bommenwerpers een atoombom op Nagasaki dropten, zagen zij enkel wolken en niet het leed op de grond. Vandaag zitten vele militairen achter een computerscherm. Dat zorgt voor een grote morele afstand. Robots zullen die afstand alleen maar vergroten."

Tot slot stelt zich ook de vraag van aansprakelijkheid, zegt Troch. "Wanneer killerrobots fouten maken, is dan de producent of de eindgebruiker verantwoordelijk?"

Meer over

Wilt u belangrijke informatie delen met De Morgen?

Tip hier onze journalisten


Op alle verhalen van De Morgen rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar info@demorgen.be.
© 2019 MEDIALAAN nv - alle rechten voorbehouden