AI-bedrijven breken beloften over mijden militaire toepassingen
Kort achter elkaar maakten drie toonaangevende, in AI gespecialiseerde bedrijven bekend dat ze gaan samenwerken met producenten van wapens en andere militaire technologie. Zorgwekkend, vindt PAX.
Drie grote Amerikaanse bedrijven die producten voor en met kunstmatige intelligentie (AI) ontwikkelen, gaan samenwerken met het Amerikaanse leger en zijn toeleveringsbedrijven. Dat meldt de nieuwswebsite New Atlas.
Het gaat om de bedrijven Anthropic, Meta en OpenAI. Die laatste is de opvallendste in het rijtje, omdat het bedrijf een bijzondere draai maakt. Ceo Sam Altman van OpenAI was lange tijd een tegenstander van het ontwikkelen van AI voor militaire toepassingen. Dat principiële standpunt gaat nu blijkbaar overboord.
Militaire producten
OpenAI kennen we vooral van ChatGPT, de teksttool waarvan tegenwoordig veel mensen gebruikmaken. Het bedrijf ontwikkelt de tekstgenerator in een rap tempo door, en brengt om de zoveel maanden een nieuwe, krachtiger versie uit.
Maar nu gaat OpenAI een partnerschap aan met Anduril, een Amerikaans bedrijf dat allerlei militaire producten maakt, van drones tot raketmotoren en onderwatervaartuigen. De samenwerking is gericht op ‘het verbeteren van de defensiesystemen van de Verenigde Staten die het Amerikaanse en geallieerde militaire personeel beschermen tegen aanvallen van onbemande drones en andere luchtvaartuigen.’
Dreiging door drones
Volgens het persbericht van Anduril ervaren de VS steeds meer mogelijke bedreigingen vanuit de lucht, door bemande vliegtuigen, maar vooral steeds meer door onbemande drones. Drones, en dan met name de kleinere typen, zijn een goedkope manier om een basis of manschappen aan te vallen. Voor minder dan duizend dollar is een compacte drone te bewapenen met een explosief. Wat daarmee te bereiken is, laat de oorlog tussen Oekraïne en Rusland zien, waar deze methode veel wordt gebruikt.
Overstag
Waarom gaan de AI-bedrijven, die eerder beloofden nooit technologie voor militair gebruik te zullen ontwikkelen, nu dan toch overstag? Zelf zeggen ze dus: vanwege toenemende dreiging van buitenaf. Maar een ander antwoord ligt ook voor de hand: geld. ‘Het grote geld lonkt’, zegt Frank Slijper, specialist wapenhandel en autonome wapens bij vredesorganisatie PAX. ‘Volgens mij is OpenAI nu verliesgevend, dus men is daar op zoek naar geld. En dat is ruim voorhanden bij het Amerikaanse ministerie van Defensie. Ook in veel Europese landen, waaronder Nederland, zijn de budgetten zelfs verdubbeld.’
Helemaal verrast door de ommezwaai van de techbedrijven is Slijper niet. ‘Amazon, Google, Microsoft en Oracle leverden natuurlijk al diensten aan wapenbedrijven en het Amerikaanse leger, in de vorm van clouddiensten voor het opslaan, verwerken en analyseren van data. Die toepassing is iets minder omstreden. Nu gaan OpenAI, Meta en Anthropic wel een grote stap verder.’
Botst met oorlogsrecht
De gevolgen daarvan zijn niet te overzien, meent Slijper. ‘Dit betekent volgens mij dat de allernieuwste vormen van generatieve AI kunnen worden gecombineerd met zwermen van drones, en met robotische wapensystemen (lees ook dit PAX-rapport uit 2023). Er zullen vormen van gezichtsherkenning en objectherkenning worden gebruikt, waarbij de mens steeds meer naar de achtergrond zal verdwijnen. Dat vinden wij zorgwekkend, omdat dit kan botsen met het oorlogsrecht.’
Daarin staan eisen over bijvoorbeeld de nauwkeurigheid van militaire acties, over de proportionaliteit van operaties en over het maken van onderscheid tussen burgers en militairen. ‘Het oorlogsrecht is niet voorbereid op dit soort technologische ontwikkelingen. Dat zagen we ook bij de opkomst van kernwapens en landmijnen; daarvoor waren verduidelijkingen van het oorlogsrecht nodig in de vorm van verdragen voor die wapens.’
Alleen voor verdedigingsdoeleinden?
OpenAI heeft gezegd dat zijn AI-technologie alleen voor verdedigingsdoeleinden zal worden gebruikt, en niet in aanvalswapens. Het is lastig om Altman op zijn blauwe ogen te geloven, vindt ook Slijper van PAX. ‘Dat is puur voor de PR, dat ze dit zeggen. OpenAI wil het nieuws een beetje afzwakken. Maar de realiteit is dat het helemaal niet zwart-wit is of je een technologie ontwikkelt voor aanvals- of verdedigingsdoeleinden. Defensiebedrijven maken dit onderscheid vaak helemaal niet. In de militaire sector zie je dat wat defensief kan worden gebruikt, vaak ook aanvallend kan worden ingezet.’
Ingezet voor andere dingen
Daarnaast is er bij technologie vaak sprake van function creep: het feit dat een ingevoerde methode of technologie na een tijdje vaak voor andere dingen wordt ingezet ‘dan de bedoeling was’. ‘Beroemd voorbeeld is de Predator-drone van de Amerikanen. Dat was oorspronkelijk een onbemand vliegtuig voor observatie, maar toen bedacht iemand om er een paar raketten onder te hangen. Zo is het toestel vervolgens vaak gebruikt’, aldus Slijper.
Afspraken maken over autonome wapens
Des te urgenter is het dat landen gezamenlijk afspraken maken over het gebruik van AI voor militaire toepassingen. Op het gebied van autonome wapens, waarover we eerder schreven, worden inmiddels kleine stappen gezet. Onlangs namen 166 landen een resolutie aan om te starten met onderhandelingen over een verdrag voor de inzet van autonome wapens. ‘Dat verdrag zal er niet morgen zijn, maar dit is wel een hoopvolle stap’, zegt Slijper.
Nieuwe wapenwedloop
Het risico van de snel voortschrijdende AI-technologie is dat er een nieuwe wapenwedloop ontstaat. Dit keer niet met kernwapens, zoals in de jaren tachtig van de vorige eeuw, maar met AI-technologie. Maar dit schrijft Anduril in zijn persbericht: ‘De versnellende race tussen de Verenigde Staten en China maakt dit tot een cruciaal moment. Als de VS terrein prijsgeven, lopen we het risico de technologische voorsprong te verliezen die onze nationale veiligheid decennialang heeft ondersteund.’ Dus eigenlijk is de AI-wapenwedloop al een feit.
Openingsfoto: drones boven een grote stad. Foto: Shutterstock