In de discussie over het kabinetsstandpunt over autonome wapens draait het om de vraag in welke mate er sprake kan zijn van menselijke controle bij autonome wapens. Volgens het kabinet is dat het geval, maar kun je dan nog wel spreken van autonome wapens?
 

Het kabinetsstandpunt volgt letterlijk wat de Adviesraad Internationale Vraagstukken en de Commissie van Advies inzake Volkenrechtelijke Vraagstukken schreven over autonome wapens. Cruciaal in dat rapport is de introductie van het begrip wider loop. Maar daarover straks meer.


Tegen volledig  autonome wapens

Als het gaat om volledig autonome wapens dan is het Advies duidelijk: die zijn in strijd met het humanitaire oorlogsrecht en daarom onaanvaardbaar. Het Advies voert argumenten aan die vrijwel een exacte kopie zijn van de Stop Killer Robots-campagne.

  • Autonome wapens zijn niet in staat onderscheid te maken tussen militairen en burgers, of te herkennen dat een soldaat gewond is of zich overgeeft.
  • Autonome wapens zijn niet in staat militair voordeel af te wegen tegen nevenschade, of proportionaliteit af te wegen.
  • Autonome wapens zijn niet in staat om aan de hand van beoordeling van de context waarin de gevechtshandeling moet plaatsvinden een oordeel te vellen wat het beste moment is om aanvallen op burgerobjecten zo veel mogelijk te vermijden.

Het enige verschil rond deze punten tussen het Advies en de Stop Killer Robots-campagne is dat het Advies steeds toevoegt: in de nabije toekomst, de komende tien jaar. Het Advies sluit dus niet uit dat autonome wapens ooit wel over de genoemde kwaliteiten zullen beschikken. Lees ook ‘Autonome wapens beslissen over leven en dood’.

Het kabinet formuleert in zijn brief van 4 maart ook heel duidelijk:

Het kabinet wijst de mogelijke ontwikkeling en inzet van volledig autonome wapens op voorhand af (…) Die systemen kunnen niet voldoen aan internationaal recht.

Toch geen verbod of moratorium

Tegelijkertijd volgt het kabinet het Advies over een verbod of moratorium.

Het kabinet vindt een verbod op autonome wapens of een moratorium op de ontwikkeling ervan niet wenselijk.

Daar zijn verschillende argumenten voor:

  • Voor een verbod is er geen draagvlak, zo blijkt uit overleg in VN-verband
  • Het is toch niet tegen te houden, verificatie is ondoenlijk
  • Veel van de kunstmatige intelligentiekennis wordt in het civiele domein ontwikkeld, en er is geen reden die ontwikkeling te stoppen. Dus waarop zou een moratorium van kracht moeten zijn?

Dit punt zal komende week zeker aan bod komen.


Toch menselijke controle

Hierboven stond al de term volledig autonome wapens. Het advies introduceert die toevoeging om onderscheid te maken met ‘autonome wapens’. Het advies maakt zo de tournure dat bij autonome wapens de militair toch een beslissende stem heeft, en wel op de volgende manier:

Voordat een autonoom wapen zijn doel kiest, is het een mens die besluit dat wapen in te zetten. Bij dat besluit hoort het vaststellen wat de operatie moet opleveren, het aan te vallen doel, de keuze van de bewapening en planning van de uitvoering. Het is ook aan de commandant om te beoordelen of de inzet van het autonome wapen voor die operatie geschikt is, wat de kans is dat het autonome wapen een verkeerd doel kiest en wat de risico’s daarvan zijn, of het gegeven de onzekerheden verantwoord is om het autonome wapen in te zetten, bijvoorbeeld als het gaat een doel met veel burgers in de nabijheid. Kortom, er zit een mens heeft nog steeds controle, zit in-the-loop, maar dat is bij autonome wapens een wider loop, vandaar dat begrip.


Hoe direct is de controle van autonome wapens?

Is deze argumentatie eenmaal opgezet, dan volgt de rest van het Advies vanzelf. Want zolang er een mens in de wider loop van de besluitvorming van het autonome wapen zit, gelden alle regels van het humanitaire oorlogsrecht, en is er dus verder niks aan de hand.

Er zijn ook tegenwerpingen van diverse kanten. Er is bij een autonoom wapen alleen sprake van een directe controle door het commando wanneer dat er zeker van kan zijn dat het autonome wapen alleen het gekozen doel en niets anders treft en dat de nevenschade overeenkomt met de gemaakte inschatting. Dat vereist dus een uitgesproken informatiepositie voor het commando, waarbij zich niks onverwachts mag voordoen. Een vijandelijk konvooi dat geheel geïsoleerd door de woestijn trekt zou aan zo’n situatie voldoen.

Meestal moet de beoordeling ter plekke worden gemaakt, vlak voordat er besloten wordt te vuren. Vandaar ook de regel dat uiteindelijk alleen de soldaat degene is die ter plekke beslist over al dan niet vuren. Ook al is die soldaat door de commandant op pad gestuurd om tegenstanders uit te schakelen, als zijn oordeel ter plekke is dat bijvoorbeeld de schade aan burgerdoelen te groot is, dan neemt hij zijn eigen beslissing.


Onvoorspelbaar

Weer terug naar het autonome wapen: overal waar de situatie op het slagveld niet volledig voorspelbaar is zal het autonome wapen, ook al heeft de commandant het met een bepaalde opdracht op pad gestuurd, beslissingen moeten nemen die door de actuele situatie op het slagveld worden bepaald. Het gaat er dus niet om of de mens in de ‘wider loop’ zit, maar dat die actief betrokken is tot het moment van de gevechtshandeling, realtime bij het nemen van besluiten.

De vraag blijft dus: in welke mate en tot op welk moment heeft de mens controle. Is dat tot aan het moment van het afvuren van het wapen, dan heeft het geen zin het wapen autonoom te noemen. Is dat tot het met het besluit om de wapens op een bepaald doel af te sturen, waarbij die zelf op het slagveld hun autonome rol moeten vervullen, dan  is er dus geen menselijke controle op de daadwerkelijke oorlogshandeling.

Ook op dit punt valt er dus genoeg te discussiëren voor de Tweede Kamer.
 

Openingsfoto: De Phalanx is een afweer tegen inkomende raketten of vliegtuigen en werkt semi-autonoom. Foto Raytheon.