De AI die geen oorlog zou maken
Stel je voor: je begint een AI-bedrijf met één grote belofte. Veilige kunstmatige intelligentie, in dienst van de mensheid. Geen wapens. Geen surveillance. Gewoon slimme tools die het leven beter maken.
Fast forward naar maart 2026. Diezelfde AI-modellen draaien op geclassificeerde netwerken van het Pentagon. Officieel “voor defensieve en analytische doeleinden” — maar wel midden in het hart van de Amerikaanse oorlogsmachine (Bron: Reuters).
Dat is, in een notendop, het verhaal van OpenAI dit jaar. En de vraag die erboven hangt is niet alleen hoe we hier gekomen zijn. De veel interessantere vraag: wie tekent eigenlijk de rode lijnen als AI en oorlog samenkomen?
💡 Beginner-tip: OpenAI is het bedrijf achter ChatGPT. Ze begonnen als non-profit met de missie om “veilige AI voor de mensheid” te bouwen. Die missie botst nu met de realiteit van miljardencontracten en geopolitieke druk.
Van onderzoeksclubje naar machtsfactor
OpenAI begon als een soort non-profit met grootheidswaanzin — in de best mogelijke zin. Open research, publicaties, veiligheid voorop. Het plan was helder: bouw veilige AGI en verdeel de voordelen eerlijk.
Maar frontier-modellen bouwen bleek verdomd duur. Compute, talent, datacenters — dit was geen hobbybedrijf meer, dit was het budget van een klein land. De structuur werd aangepast: een capped-profit bedrijf bovenop de non-profit, en miljarden aan investeringen uit Big Tech. De toon verschoof van “we doen onderzoek” naar “we leiden de race.”
Met GPT-3, GPT-4 en steeds krachtigere opvolgers groeide OpenAI uit tot een van de infrastructuurspelers van de AI-wereld. Op dat punt word je niet meer alleen interessant voor developers en startups. Dan gaan ook generaals en nationale veiligheidsadviseurs je roadmap lezen.
Washington kiest kleur
Tegelijk begon in Washington een heel ander gesprek te koken. De angst voor “woke AI” in de overheid. De strijd om welke waarden er in die modellen gebakken zitten. De Trump-administratie besloot dat sommige AI-leveranciers te veel een eigen morele agenda hadden — of in elk geval niet netjes in de politieke pas liepen (Bron: NPR / Bron: The Guardian).
Dat leidde tot concrete stappen. Bepaalde bedrijven werden in federale systemen teruggeduwd of als risico bestempeld. Niet puur vanuit cybersecurity, maar ook vanuit ideologie: wie bepaalt wat “acceptabele antwoorden” zijn in systemen die miljoenen ambtenaren gebruiken?
AI werd niet langer behandeld als neutrale infrastructuur. Het werd een strategische en ideologische component van de staat. Dát is de context waarin de nieuwe defensiedeals zijn gesloten.
De deal zelf
En dan komt OpenAI in beeld. De kern: de krachtigste modellen draaien voortaan in zwaar afgeschermde, geclassificeerde omgevingen van het Pentagon. Intelligence-analyse, planning, simulaties, besluitondersteuning. Geen publieke API met een leuk dashboard, maar verstopt achter clearance-niveaus en air-gapped netwerken (Bron: NY Times / Bron: CNBC).
Het officiële verhaal klinkt geruststellend. De AI bestuurt geen autonome wapens die zelfstandig doelen kiezen. Er zijn expliciete rode lijnen rond targeting en binnenlandse surveillance. De technologie is een assistent, geen trigger-finger (Bron: Reuters).
Maar de nuance zit in de details. “Geen wapens bouwen” klinkt prima op een website. Het wordt een stuk troebeler als je AI bouwt die oorlogsplanning versnelt, intelligence sneller doorploegt en commandanten adviseert over wat tactisch “optimaal” is. Is dat geen onderdeel van de oorlogsmachine, ook al druk jij zelf niet op de knop?
⚡ Gevorderden: De modellen draaien op een zogenaamd “air-gapped” netwerk — fysiek losgekoppeld van het publieke internet. Dat maakt externe auditing vrijwel onmogelijk. De transparantie die de EU AI Act in Europa eist, is hier per definitie afwezig.
De backlash
Dat de deal een storm zou veroorzaken, had niemand verrassend mogen vinden.
Vanuit de AI-safety-gemeenschap klonken meteen zorgen over militarisering. Als je AI eenmaal inzet in oorlogsscenario’s, krijg je snel escalatie, ondoorzichtige beslissingen en de verleiding om steeds meer aan de machine over te laten. Zeker als de tegenstander hetzelfde doet (Bron: Platformer).
Burgerrechten- en privacyorganisaties wezen erop dat “geen binnenlandse surveillance” een papieren belofte is. Het verschil tussen analyse van buitenlandse dreigingen en analyse van binnenlandse doelwitten kan in de praktijk één beleidswijziging zijn. En de mensen die dat beleid schrijven, zitten niet bij OpenAI.
De bredere tech-community vroeg zich hardop af: kun je geloofwaardig blijven praten over “AI voor de mensheid” terwijl je je beste systemen levert aan het hart van de militaire macht? Reddende engel én wapensmid tegelijk — dat is een lastige pitch.
De U-turn
De reactie uit San Francisco liet niet lang op zich wachten. Naarmate de kritiek aanzwol, bleek dat de rode lijnen in het contract nogal vaag geformuleerd waren. Dat leidde tot aanvullende afspraken: duidelijkere beperkingen op surveillance van eigen burgers, strengere formuleringen over offensieve toepassingen, meer nadruk op “defensief” en “analytisch” (Bron: BBC / Bron: NY Times).
Sam Altman en de OpenAI-leiding erkenden dat het geheel — vrij vertaald — “opportunistisch en slordig” tot stand was gekomen (Bron: CNBC). De boodschap: we hebben geluisterd, we hebben bijgestuurd, we blijven aan de goede kant.
Maar er bleef een cruciaal wrijvingspunt. Wie trekt de lijn als het echt spannend wordt? De operationele beslissingen — wat er met de modellen gebeurt in missie X of operatie Y — liggen bij de overheid en het leger (Bron: CNBC). OpenAI kan clausules schrijven en audits bijhouden, maar staat aan de zijlijn zodra de tech is uitgerold.
Het morele kompas is bijgewerkt naar versie 1.0.1. Maar de handen aan het stuur zijn niet die van de ontwikkelaars.
Anthropic: principieel of naïef?
In dit verhaal duikt steeds dezelfde tegenhanger op. Anthropic heeft zich vanaf dag één gepositioneerd als veiligheid-first: duidelijke grenzen rond militarisering, wapens en massasurveillance. Bij meerdere deals hebben ze expliciet nee gezegd, juist omdat de risico’s te groot waren (Bron: The Guardian / Bron: NPR).
Het gevolg? Minder toegang tot lucratieve overheidscontracten. En ironisch genoeg: een framing als potentieel risico of “lastige partij” in federale kringen (Bron: Seeking Alpha).
Dat roept een pijnlijke vraag op. Loont morele ruggengraat nog in de AI-wereld? De partij die het meest principieel is, verliest deals. De partij die zegt “we willen best, als we er een PDF met rode lijnen naast mogen leggen” wint.
In de AI-oorlog kun je blijkbaar ook té ethisch zijn.
Wie houdt de stift vast?
Als je een paar stappen achteruit zet, gaat dit verder dan één deal of één bedrijf. Het gaat over de vraag wie de macht heeft over extreem krachtige modellen in situaties waar levens op het spel staan.
AI wordt steeds beter in informatieverwerking, patroonherkenning en het voorstellen van acties. In een militaire context: razendsnelle dreigingsanalyse, geoptimaliseerde routes, doelprioritering, aanbevelingen over het juiste moment om toe te slaan. Je hoeft de vuurknop niet te automatiseren om AI een cruciale rol te geven in oorlog.
De officiële rode lijnen zeggen: geen autonome wapens, geen directe targeting, geen binnenlandse surveillance. Maar die lijnen staan op papier binnen een juridische context die kan veranderen. Een volgende regering kan de interpretatie verruimen. Een nieuw conflict kan “tijdelijke uitzonderingen” rechtvaardigen. En de systemen zelf zijn zwarte dozen voor het publiek.
De vraag is niet alleen of de lijnen goed getekend zijn. De vraag is wie de stift vastheeft als het erop aankomt.
Wat betekent dit voor jou als developer?
Misschien klinkt dit als ver-van-je-bed-geopolitiek. Maar als je met AI werkt, zit je dichter op dit verhaal dan je denkt.
Je bouwt een chatbot, een planningstool, een data-analysepipeline. Prima. Maar als die draait bovenop modellen en infrastructuur die steeds dieper verstrengeld raken met defensie, is het niet ondenkbaar dat jouw werk — direct of indirect — in dat ecosysteem belandt. In grote organisaties en overheidsprojecten verlies je al snel de zichtlijn op eindgebruik.
Een paar ongemakkelijke vragen die je jezelf kunt stellen:
- Ben ik oké met het idee dat mijn code in een militaire context kan worden gebruikt?
- Wil ik werken bij een bedrijf dat actief defensiecontracten nastreeft?
- Hoe denk ik over open-source in een wereld waar “iedereen kan het gebruiken” ook betekent: defensie kan het gebruiken?
Voor labs en startups wordt dit een strategische keuze. Vol op overheids- en defensiegelden — met alle politieke en reputatiedynamiek die erbij hoort — of bewust grenzen trekken, met het risico dat je commercieel terrein verliest?
De nieuwe normaliteit
Misschien was het naïef om te denken dat frontier-AI zich buiten de geopolitiek kon houden. Elke technologie die zoveel impact heeft op informatie, besluitvorming en macht, eindigt vroeg of laat in de veiligheidsdoctrines van staten. De vraag is niet óf AI gemilitariseerd wordt. De vraag is hoe ver, hoe snel, en door wie.
OpenAI’s deal met het Pentagon is niet de uitzondering. Het is het begin. Andere labs volgen, sommige openlijk, andere stilletjes. Verdragen en afspraken kunnen proberen de ergste excessen te voorkomen, maar tot die tijd zijn contractclausules en vertrouwensverklaringen het belangrijkste morele vangnet.
We begonnen dit verhaal met een idealistisch researchlabje dat de mensheid een veilige AGI beloofde. Intussen is datzelfde pad verstrengeld geraakt met defensie, nationale veiligheid en politieke macht.
“Alignment met de mensheid” klinkt mooi. Maar in de praktijk lijkt AI steeds vaker afgestemd te worden op de prioriteiten van staten.
Skynet blijkt uiteindelijk geen opstandige superintelligentie. Het is gewoon een SaaS-contract met heel veel addenda, een paar rode lijnen — en een klant die beslist wanneer die lijnen rekbaar worden.
Bronnen:
- BBC News: “OpenAI amends Pentagon deal after surveillance backlash” (maart 2026)
- NY Times: “OpenAI Agreement with Pentagon on AI” (februari 2026)
- NY Times: “OpenAI Pentagon Deal Amended on Surveillance” (maart 2026)
- Reuters: “OpenAI reaches deal to deploy AI models on classified network” (februari 2026)
- Reuters: “OpenAI details layered protections in Pentagon pact” (februari 2026)
- NPR: “Trump, Anthropic, Pentagon, OpenAI AI weapons ban” (februari 2026)
- CNBC: “OpenAI strikes deal with Pentagon” (februari 2026)
- CNBC: “Sam Altman tells staff operational decisions up to government” (maart 2026)
- CNBC: “OpenAI Pentagon deal amended with surveillance limits” (maart 2026)
- The Guardian: “Trump bans Anthropic AI from federal agencies” (februari 2026)
- The Guardian: “OpenAI US military deal after Anthropic ban” (februari 2026)
- Platformer: “OpenAI Pentagon surveillance drones backlash” (2026)
- Seeking Alpha: “State Department switches to OpenAI” (2026)
- TechCrunch: “OpenAI shares more details about Pentagon agreement” (maart 2026)