close
close

‘Je kunt iemand alleen aansprakelijk stellen als hij iets willens en wetens doet’

Wapens uitgerust met kunstmatige intelligentie kiezen zelf hun slachtoffers, zonder dat een ‘human in the know’ daarvoor verantwoordelijk is. Oorlogsrechtadvocaat Jonathan Kwik onderzocht de gevolgen.

Bruno van Wayenburg

Kunstmatige intelligentie (AI) rukt op, ook op het slagveld. Oekraïne wil honderdduizenden slimme drones op het slagveld inzetten, het Israëlische Iron Dome-systeem detecteert en onderschept onafhankelijk binnenkomende raketten, en Rusland loopt ook voorop bij de ontwikkeling van wapens.

De virale video het doden van robots Waar dit toe kan leiden, liet 2017 zien: een zwerm drones uitgerust met gezichtsherkenning en een explosieve lading. Eenmaal vrijgelaten, gaan ze op zoek naar hun voorgeprogrammeerde slachtoffers. Zonder risico, zonder buitensporige kosten en zonder bekendmaking van de afzender. Activisten willen deze autonome wapensystemen (AWS) verbieden voordat het te laat is.

Advocaat Jonathan Kwik onderzocht of en hoe AWS nog verzoend kan worden met het internationale oorlogsrecht. Volgens die wet zijn willekeurige aanvallen verboden en zijn soldaten verplicht burgerslachtoffers zoveel mogelijk te voorkomen. Woensdag promoveerde Kwik op zijn onderzoek aan de Universiteit van Amsterdam.

Alle wapensystemen zijn bedoeld voor geweld, wat is het verschil met ‘normale’ wapens?

“Wat deze systemen van anderen onderscheidt, is de afstand tussen de persoon die ze implementeert en het geweld, fysiek of conceptueel. Vergelijk iemand die de trekker overhaalt om iemand neer te schieten met bijvoorbeeld de harpij. Dit is een Israëlische drone die met behulp van AI vliegt en zoekt naar vijandelijke radarsystemen. Als hij er een vindt, bespringt hij hem en explodeert.”

“Volgens het oorlogsrecht is het niet toegestaan ​​wapens te gebruiken die geen onderscheid kunnen maken tussen militaire en civiele doelen. Maar zo’n Harpij bepaalt zelf welk radarsysteem ze aanvalt, zonder definitieve toestemming van een soldaat. Je weet dus niet precies waar je op schiet.”

“Een ander probleem met AWS is de onvoorspelbaarheid ervan. Volgens het oorlogsrecht moet iemand verantwoordelijk zijn. Maar iemand kan alleen verantwoordelijk worden gehouden als hij iets willens en wetens doet. Net als andere AI-systemen, AWS mislukkingen of hallucinaties. “Deze zijn moeilijk te voorspellen of te begrijpen.”

“Ik heb het onderzoek uitgevoerd met de nadruk op de operationele kant, dat wil zeggen vanuit het perspectief van een commandant op het slagveld. Als ze een AWS inzetten die per ongeluk een geprogrammeerde bus als tank herkent, zullen er burgerdoden vallen. Maar de commandant zal zeggen: dat wist ik niet.”

“De wapenfabrikant zal dergelijke fouten ook niet noodzakelijkerwijs kunnen voorzien. AI-systemen worden niet geprogrammeerd, maar getraind met een grote hoeveelheid data. Dit betekent ook dat je niet altijd weet waarom de AI bepaalde beslissingen neemt. Dit wordt het black box-fenomeen genoemd.”

WETENSCHAP - 8 juni 2022, Beieren, Hohenfels: Exploitanten van het op afstand bediende voertuig Project Origin van het Amerikaanse leger verzamelen zich tijdens een demonstratie.  Het Amerikaanse leger heeft de

WETENSCHAP – 8 juni 2022, Beieren, Hohenfels: Exploitanten van het op afstand bediende voertuig Project Origin van het Amerikaanse leger verzamelen zich tijdens een demonstratie. Het Amerikaanse leger heeft het op afstand bediende voertuig ‘Project Origin’ onthuld, dat door soldaten op afstand kan worden bestuurd om onder meer vuursteun, verkennings- en rookmogelijkheden te bieden. Foto: Nicolas Armer/dpa (Foto door Nicolas Armer/Picture Alliance via Getty Images)Afbeelding dpa/Picture Alliance via Getty I

Maar wie is verantwoordelijk?

“Dat is natuurlijk het punt. Daar valt echter wel iets voor te zeggen. Geweren hebben een roeping verwachte werkomgeving: omstandigheden waarin de kans op fouten minimaal is. De testuitslag is alleen onder deze omstandigheden geldig en bijvoorbeeld niet als de zon voor je schijnt. Daarom moet een commandant duidelijk begrijpen onder welke omstandigheden hij het wapen kan gebruiken en welke factoren hierop van invloed zijn.”

Dat klinkt redelijk, maar in een oorlogssituatie staan ​​commandanten onder grote druk.

“Dat is waar, maar aan de andere kant denk ik dat het redelijk is om dit te vragen, omdat deze wapens heel anders zijn dan normale wapens. Commandanten kunnen en moeten daar ook in getraind worden.”

Eén van de (nog steeds fictieve) systemen die hij in zijn proefschrift noemt is de exterminator: een onbemand pantservoertuig dat zelfstandig vijandelijke troepen, tanks en militaire voertuigen in steden herkent en aanvalt. Dit doet denken aan de moordrobots uit de gelijknamige video.

“Dit zou een extreem voorbeeld moeten zijn van wat anti-autonome wapenactivisten gebruiken: uit de hand gelopen moordwapens. Maar als je hierover met soldaten praat, zullen ze je vertellen: wij zijn zelf niet geïnteresseerd in systemen die we niet kunnen controleren. “Ik ben op zoek naar een meer genuanceerde discussie.”

In Oekraïne en de Gazastrook zien we dat de partijen zich niet altijd bekommeren om het oorlogsrecht.

“Zelfs iemand die de oorlogswetten negeert, heeft geen belang bij een oncontroleerbaar wapen. Voordat je ze inzet, wil je zeker weten wat het militaire voordeel is.”

Maak je met deze genuanceerde houding de ontwikkeling van moordrobots niet mogelijk?

“Ik ben het eens met de boodschap van activisten die zeggen: sommige systemen zijn te verschrikkelijk, we moeten ze niet gebruiken. Misschien zou dit verboden moeten worden, maar mijn kritiek is dat de nadruk op extreme voorbeelden afleidt en dat de echte problemen niet worden aangepakt.”

“Ik denk dat we meer naar de middenklasse van AWS moeten kijken, met meer onafhankelijkheid maar niet geheel onbeheersbaar. De ontwikkeling ervan gaat door, ondanks pogingen om het te stoppen, dus ik denk dat het verstandiger is om te zeggen: het gaat waarschijnlijk die kant op en dat is hoe het moet worden benaderd.

Afbeelding van militair advocaat Jonathan Kwik -

militair advocaat Jonathan KwikAfbeelding –

Jonathan Kwik

19 maart 1993, Semarang (Indonesië)

2015 Bachelor Internationaal Recht, Rijksuniversiteit Groningen
2016 internationaal strafrecht en criminologie, Rijksuniversiteit Groningen
2016-2019 universitair docent internationaal recht en oorlogsrecht, Semarang
2019-2023 Promotieonderzoek naar autonome wapensystemen, Universiteit van Amsterdam
2023-heden Defensieonderzoek bij het Asser Instituut naar kunstmatige intelligentie, desinformatie, dronezwermen en logistiek.

Leave a Reply

Your email address will not be published. Required fields are marked *