Is AI een oorlogswapen?

di 10 mrt 2026 - 14:17

Zijn AI-bedrijven defensiebedrijven? Dat is de vraag die de oorlog in Iran ons doet stellen. 

(Artikel door professor Marc De Vos, oprichter van het Itinera Institute en laureaat van de Prijs voor de Vrijheid 2019 van denktank Libera!, zoals oorspronkelijk gepubliceerd in Trends op 10 maart 2026.)

Het Amerikaanse leger gebruikt daar de Claude-applicatie van Anthropic voor wat heet het “versnellen van de doelbestrijdingsketen”. Dat is militair jargon voor het omzetten van data en inlichtingen in doelwitten, het voorbereiden en plannen van aanvalsopties en het nemen van beslissingen over het inzetten van wapens. Volgens de internationale media verkort Claude de keten van detectie tot aanval van dagen of uren tot bijna realtime actie.

Laat dat even bezinken. De AI-chatbot van een start-up die pas in 2023 op de markt kwam, een technologie met welbekende risico’s van hallucinaties, waanbeelden en andere onregelmatigheden, speelt een kritieke rol in de oorlogsmachine van het machtigste leger op aarde. We beleven de ultieme versmelting van civiele technologie met militaire middelen. Net zoals het Starlink-netwerk van Elon Musk – nog zo’n megastart-up – een kritiek communicatienetwerk werd voor de oorlog in Oekraïne.

AI is een categorie op zich. We denderen in sneltreinvaart richting autonome AI-agents die complexe beslissingen van mensen overnemen, directer en preciezer dan we zelf kunnen. Autonome wapens – sneller, accurater, grootschaliger, meedogenlozer dan wat de mens zelf vermag – loeren om de hoek. Net op het moment dat Anthropic een cruciale rol speelt bij succesvolle militaire aanvallen in het Midden-Oosten, ligt het bedrijf op ramkoers met de Amerikaanse overheid. Anthropic verzet zich tegen het gebruik van zijn technologie voor automatische oorlogsvoering en massasurveillance van Amerikaanse burgers, aldus de termen van zijn contract met de overheid. Die beperking escaleert tot een staatszaak.

De positie van Anthropic lijkt een morele keuze van een privébedrijf over de inzet van zijn product, wellicht ook ingegeven door bedrijfsbelang om de risico’s van aansprakelijkheid en reputatieschade te voorkomen. Maar bekijk het vanuit de versmelting met oorlogsvoering. De soevereine Amerikaanse natie kan niet aanvaarden dat een particuliere wapenleverancier een veto heeft over de manier waarop het leger dat wapen inzet. En AI is wel degelijk een wapen. Claude zit verankerd in de keten van hoogst vertrouwelijke militaire inlichtingen en geheimen. Anthropic levert geen tanks of vliegtuigen, maar wel data en software – ‘wapens als een dienst’ – die het bedrijf voortdurend een vinger aan de pols van defensie geven.

In de nabije toekomst kunnen bots als Claude autonoom informatie filteren en manipuleren volgens de parameters van hun algoritme. Als de overheid hier geen controle over krijgt, wordt het algoritme van Anthropic straks de evenknie van de opperbevelhebber van het leger. De parameters van een AI-algoritme zijn ook keuzes met een politieke waarde – denk maar aan de socialemediaplatformen. Welke overheid zal aanvaarden dat de politieke grenzen voor oorlogsvoering door een bedrijf worden bepaald?

De regering-Trump speelt hoog spelen dreigt Anthropic te weren uit alle toeleveringsketens, als was het een staatsgevaarlijk Chinees technologiebedrijf. Dat neigt naar politieke liquidatie, wellicht een onderhandelingsmanoeuvre. Maar het illustreert een fundamenteel dilemma voor de toekomst van AI. Ofwel worden dominante AI-bedrijven een verlengstuk van de staat, ofwel wordt de staat een verlengstuk van AI-bedrijven. Geen van beide opties zijn aantrekkelijk. Misschien moeten we evolueren naar aparte militaire AI, of moet de Amerikaanse overheid militaire AI-toepassingen gewoon nationaliseren. Hoe dan ook, voor Europa wordt de nood aan soevereine AI-technologie voor nationale veiligheid steeds groter.