Woensdag 17/07/2019

Waarom robots oorlogen laten uitvechten geen goed idee is

Stop met het ontwikkelen van killerrobots, waarschuwen wereldexperten op het vlak van robotica en artificiële intelligentie. Zodra ze bestaan, zullen gewapende conflicten op een grotere schaal dan ooit tevoren worden uitgevochten, klinkt het.

De Samsung SGR-A1 is niet de allernieuwste smartphone van het Zuid-Koreaanse merk. Wel gaat het om hoogtechnologisch afweergeschut dat de Zuid-Koreanen moet helpen om de 4 kilometer brede bufferzone tussen Noord- en Zuid-Korea te kunnen controleren. Het kaliber was de eerste in zijn soort die autonoom de omgeving kan scannen, stemmen herkent en, indien nodig, met een granaatlanceerder of een machinegeweer reageert. Wie zich binnen die zone wil begeven, denkt dus maar beter twee keer na.

Het klinkt als een extreme maatregel in een vergaand conflict, maar volgens Human Rights Watch zijn ook de Verenigde Staten, China, Rusland en het Verenigd Koninkrijk volop bezig met het ontwikkelen van dodelijke autonome wapensystemen.

Doos van Pandora

"We hebben niet veel tijd meer. Eens de doos van Pandora geopend is, zal die nog moeilijk te sluiten zijn." De waarschuwing voor killerbots lijkt al praat voor de vaak. Die staat in een open brief van een groep van 116 experts in kunstmatige intelligentie uit 26 landen, onder leiding van Tesla-baas Elon Musk en Mustafa Suleyman, mede-oprichter van Google DeepMind.

Automatisering en technologische evolutie hebben al langer een invloed op hoe oorlogen worden uitgevochten. Koen Troch, adjunct-professor aan de Koninklijke Militaire School, denkt onder meer aan de antipersoonsmijn die tijdens de Eerste Wereldoorlog veel gebruikt werd. "Wanneer iemand over de mijn liep, zorgde de drukplaat voor de ontploffing." Vandaag is het helemaal niet moeilijk meer om met behulp van verschillende sensoren en technologieën andere wapens te automatiseren. "Met wat explosieven, huis-, tuin- en keukenmateriaal en een drone kan je al een behoorlijk effectief wapen maken."

Hoe dodelijk ook, van echte killerrobots kun je dan nog niet spreken. "De echte vraag die je moet stellen is: zit er nog een mens in het beslissingssysteem of niet?" stelt Nathalie Van Raemdonck, die werkt bij het Centrum voor Cybersecurity België (CCB) en onderzoek deed naar Lethal Unmanned Aerial Vehicles, of killerdrones. Beslist een computer of een mens over het al dan niet neerschieten van een andere mens?

"Oorlog is voor een stuk ethiek", zegt Van Raemdonck. Ze verwijst daarvoor onder andere naar de Geneefse Conventie, waarin duidelijk wordt bepaald hoe je omgaat met strijdkrachten en burgers tijdens gewapende conflicten. "Je kunt je de vraag stellen of je die regels niet overtreedt als je robots zelf, of vanaf een afstand, conflicten laat uitvechten. Waar zit de precieze dreiging, die het geweld verantwoordt, dan nog?" Een robot kan strategische keuzes maken, maar heeft geen flauw idee welk menselijk leed hij veroorzaakt.

Die empathie voor menselijk leed is volgens Mark Coeckelbergh, techniekfilosoof aan de universiteit van Wenen, ook niet te programmeren. Zelfs soldaten die vanaf een afstand ageren, handelen anders dan een soldaat die midden in een oorlog zit. "Toen de bommenwerpers een atoombom op Nagasaki in Japan dropten, zagen zij enkel wolken en niet het leed op de grond. Vandaag zitten vele militairen achter een computerscherm. Dat zorgt voor een grote morele afstand. Robots zullen die afstand alleen maar vergroten."

Tot slot stelt zich ook de vraag van aansprakelijkheid, zegt Troch. "Als killerbots fouten maken, is dan de producent of de eindgebruiker daarvoor verantwoordelijk?"

Meer over

Wilt u belangrijke informatie delen met De Morgen?

Tip hier onze journalisten


Op alle verhalen van De Morgen rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar info@demorgen.be.
© 2019 MEDIALAAN nv - alle rechten voorbehouden