Ook Big Tech-bedrijf Alphabet verzet zich niet langer tegen de inzet van AI in wapens en andere militaire technologie. Eind vorig jaar gingen drie toonaangevende, in AI gespecialiseerde bedrijven het moederconcern van Google al voor. Een zorgwekkende ontwikkeling, vindt vredesorganisatie PAX.

Voorgaande jaarverslagen van Alphabet bevatten steevast de mededeling dat toepassingen van kunstmatige intelligentie die mensen kunnen schaden dienen te worden vermeden. Die passage is in het woensdag verschenen rapport Responsible AI echter geschrapt. 

Geopolitieke realiteit

In plaats daarvan schrijven de auteurs over een steeds complexer geopolitieke realiteit, waarin verschillende partijen elkaar de hegemonie op AI-gebied bevechten. 'Wij geloven dat democratieën voorop moeten gaan in de ontwikkeling van AI, op basis van kernwaarden als vrijheid, gelijkheid en respect voor mensenrechten.' 

Een van de terreinen waarop AI kan worden ingezet, is ter ondersteuning van de nationale veiligheid, aldus Google, dat met DeepMind een belangrijke speler op AI-gebied is. 

De aanpassing is nodig omdat de technologie zich de afgelopen tijd razendsnel heeft ontwikkeld, stellen auteurs James Manyika, vice-president van Alphabet, en Demis Hassabis, die DeepMind leidt. 

Opvallende draai

Eerder meldden de bedrijven Anthropic, Meta en OpenAI te gaan samenwerken met het Amerikaanse leger. Met name Open AI maakte darbij een opvallende draai. Ceo Sam Altman was lange tijd expliciet tegenstander van het ontwikkelen van AI voor militaire toepassingen. Eerder meldden de bedrijven Anthropic, Meta en OpenAI te gaan samenwerken met het Amerikaanse leger. Met name Open AI maakte darbij een opvallende draai. Ceo Sam Altman was lange tijd expliciet tegenstander van het ontwikkelen van AI voor militaire toepassingen. 

Militaire producten

OpenAI kennen we vooral van ChatGPT, de teksttool waarvan tegenwoordig veel mensen gebruikmaken. Het bedrijf ontwikkelt de tekstgenerator in een rap tempo door, en brengt om de zoveel maanden een nieuwe, krachtiger versie uit.

Maar nu gaat OpenAI een partnerschap aan met Anduril, een Amerikaans bedrijf dat allerlei militaire producten maakt, van drones tot raketmotoren en onderwatervaartuigen. De samenwerking is gericht op ‘het verbeteren van de defensiesystemen van de Verenigde Staten die het Amerikaanse en geallieerde militaire personeel beschermen tegen aanvallen van onbemande drones en andere luchtvaartuigen.’

Dreiging door drones

Volgens het persbericht van Anduril ervaren de VS steeds meer mogelijke bedreigingen vanuit de lucht, door bemande vliegtuigen, maar vooral steeds meer door onbemande drones. Drones, en dan met name de kleinere typen, zijn een goedkope manier om een basis of manschappen aan te vallen. Voor minder dan duizend dollar is een compacte drone te bewapenen met een explosief. Wat daarmee te bereiken is, laat de oorlog tussen Oekraïne en Rusland zien, waar deze methode veel wordt gebruikt.

Deze Anvil-drone van Anduril wordt gebruikt om andere drones onschadelijk te maken. Counter-UAS (Unmanned Aircraft System) heet dat. Foto: Anduril

Overstag

Waarom gaan de AI-bedrijven, die eerder beloofden nooit technologie voor militair gebruik te zullen ontwikkelen, nu dan toch overstag? Zelf zeggen ze dus: vanwege toenemende dreiging van buitenaf. Maar een ander antwoord ligt ook voor de hand: geld. ‘Het grote geld lonkt’, zei Frank Slijper, specialist wapenhandel en autonome wapens bij vredesorganisatie PAX, in december al. ‘Volgens mij is OpenAI nu verliesgevend, dus men is daar op zoek naar geld. En dat is ruim voorhanden bij het Amerikaanse ministerie van Defensie. Ook in veel Europese landen, waaronder Nederland, zijn de budgetten zelfs verdubbeld.’

Helemaal verrast door de ommezwaai van de techbedrijven is Slijper niet. ‘Amazon, Google, Microsoft en Oracle leverden natuurlijk al diensten aan wapenbedrijven en het Amerikaanse leger, in de vorm van clouddiensten voor het opslaan, verwerken en analyseren van data. Die toepassing is iets minder omstreden. Nu gaan OpenAI, Meta en Anthropic wel een grote stap verder.’

Botst met oorlogsrecht

De gevolgen daarvan zijn niet te overzien, meent Slijper. ‘Dit betekent volgens mij dat de allernieuwste vormen van generatieve AI kunnen worden gecombineerd met zwermen van drones, en met robotische wapensystemen (lees ook dit PAX-rapport uit 2023). Er zullen vormen van gezichtsherkenning en objectherkenning worden gebruikt, waarbij de mens steeds meer naar de achtergrond zal verdwijnen. Dat vinden wij zorgwekkend, omdat dit kan botsen met het oorlogsrecht.’

Daarin staan eisen over bijvoorbeeld de nauwkeurigheid van militaire acties, over de proportionaliteit van operaties en over het maken van onderscheid tussen burgers en militairen. ‘Het oorlogsrecht is niet voorbereid op dit soort technologische ontwikkelingen. Dat zagen we ook bij de opkomst van kernwapens en landmijnen; daarvoor waren verduidelijkingen van het oorlogsrecht nodig in de vorm van verdragen voor die wapens.’

Alleen voor verdedigingsdoeleinden?

OpenAI heeft gezegd dat zijn AI-technologie alleen voor verdedigingsdoeleinden zal worden gebruikt, en niet in aanvalswapens. Het is lastig om Altman op zijn blauwe ogen te geloven, vindt ook Slijper van PAX. ‘Dat is puur voor de PR, dat ze dit zeggen. OpenAI wil het nieuws een beetje afzwakken. Maar de realiteit is dat het helemaal niet zwart-wit is of je een technologie ontwikkelt voor aanvals- of verdedigingsdoeleinden. Defensiebedrijven maken dit onderscheid vaak helemaal niet. In de militaire sector zie je dat wat defensief kan worden gebruikt, vaak ook aanvallend kan worden ingezet.’

Het onbemande toestel MQ-1 'Predator'. Foto: U.S. Air Force / CC BY-NC-ND 2.0

Ingezet voor andere dingen

Daarnaast is er bij technologie vaak sprake van function creep: het feit dat een ingevoerde methode of technologie na een tijdje vaak voor andere dingen wordt ingezet ‘dan de bedoeling was’. ‘Beroemd voorbeeld is de Predator-drone van de Amerikanen. Dat was oorspronkelijk een onbemand vliegtuig voor observatie, maar toen bedacht iemand om er een paar raketten onder te hangen. Zo is het toestel vervolgens vaak gebruikt’, aldus Slijper.

Afspraken maken over autonome wapens

Des te urgenter is het dat landen gezamenlijk afspraken maken over het gebruik van AI voor militaire toepassingen. Op het gebied van autonome wapens, waarover we eerder schreven, worden inmiddels kleine stappen gezet. Onlangs namen 166 landen een resolutie aan om te starten met onderhandelingen over een verdrag voor de inzet van autonome wapens. ‘Dat verdrag zal er niet morgen zijn, maar dit is wel een hoopvolle stap’, zegt Slijper.

Nieuwe wapenwedloop

Het risico van de snel voortschrijdende AI-technologie is dat er een nieuwe wapenwedloop ontstaat. Dit keer niet met kernwapens, zoals in de jaren tachtig van de vorige eeuw, maar met AI-technologie. Maar dit schrijft Anduril in zijn persbericht: ‘De versnellende race tussen de Verenigde Staten en China maakt dit tot een cruciaal moment. Als de VS terrein prijsgeven, lopen we het risico de technologische voorsprong te verliezen die onze nationale veiligheid decennialang heeft ondersteund.’ Dus eigenlijk is de AI-wapenwedloop al een feit.


Openingsfoto: drones boven een grote stad. Foto: Depositphoto