In februari 2026 geeft het Amerikaanse ministerie van Defensie een ultimatum aan AI-bedrijf Anthropic. De eis: onbeperkte toegang tot Anthropic’s AI-modellen — inclusief toepassingen die Anthropic’s eigen gebruiksvoorwaarden uitdrukkelijk verbieden. De dreiging: een oorlogsproductiewet uit 1950.

Zeven maanden eerder had hetzelfde bedrijf een contract van $200 miljoen getekend met hetzelfde ministerie van Defensie. Anthropic heeft verantwoorde AI-ontwikkeling tot oprichtingsprincipe gemaakt — en was tegelijkertijd het eerste AI-bedrijf dat was goedgekeurd voor inzet op gerubriceerde militaire netwerken.

Het conflict legt mechanismen bloot die veel verder reiken dan één enkel bedrijf.

Waar dit niet over gaat

De kwestie van datatoegang is niet aan de orde in dit conflict. Sinds 2018 beschikt het Amerikaanse ministerie van Justitie over de CLOUD Act (Clarifying Lawful Overseas Use of Data Act), die Amerikaanse bedrijven dwingt alle gegevens die zij opslaan te overhandigen — ongeacht waar ter wereld die gegevens zich fysiek bevinden. Dit geldt voor Microsoft, Google, Amazon, Meta, OpenAI, Anthropic en elk ander Amerikaans technologiebedrijf.

Of Anthropic het Pentagon toegang verleent tot zijn AI-technologie of niet: de Amerikaanse overheid heeft altijd toegang gehad, heeft toegang en zal toegang blijven hebben tot gebruikersgegevens, zolang de aanbieder een Amerikaans bedrijf is.

Waar het om gaat is iets heel anders: onbeperkte toegang tot de technologie zelf — om de AI-modellen te gebruiken voor massasurveillance en autonome wapensystemen.

Een veiligheidsbelofte en een militair contract

Anthropic heeft zich gepositioneerd als een bedrijf dat verantwoorde AI-ontwikkeling centraal stelt. Het Acceptable Use Policy verbiedt uitdrukkelijk massasurveillance van bevolkingsgroepen en de inzet van autonome wapensystemen zonder menselijk toezicht.

Tegelijkertijd accepteerde het bedrijf in juli 2025 een prototypecontract van $200 miljoen met het ministerie van Defensie, ontwikkelde speciale Claude Gov-modellen voor overheidsklanten en was — via partners zoals Palantir — al operationeel op gerubriceerde militaire netwerken. Op het moment dat het conflict uitbrak, was Anthropic het enige AI-bedrijf dat was goedgekeurd voor gebruik op gerubriceerde systemen.

  • Elk bedrijf dat een contract met het ministerie van Defensie aangaat, plaatst zichzelf binnen diens juridische en operationele invloedssfeer.
  • Elk bedrijf dat op gerubriceerde netwerken opereert, wordt kritieke infrastructuur — en een potentieel doelwit voor regelgevende dwang.
  • Elk bedrijf dat $200 miljoen van het DoD aanneemt, creëert een economische afhankelijkheid die als hefboom kan worden gebruikt.

Anthropic lijkt erop te hebben gegokt dat zijn eigen gebruiksvoorwaarden als contractuele beperking zouden worden gerespecteerd. Het DoD ziet dat anders. Het beschouwt de bestaande betalingen en implementaties als grond om Anthropic als onderdeel van de militaire toeleveringsketen te behandelen en alle beperkingen op te heffen — via contractuele druk, via een toeleveringsketenrisicoaanwijzing, of via toepassing van de Defense Production Act.

Drie escalatieniveaus

Contractbeëindiging. De meest voor de hand liggende maatregel: annulering van het contract van $200 miljoen. Financieel beheersbaar voor Anthropic, dat het meeste van zijn omzet uit de commerciële markt haalt.

Toeleveringsketenaanwijzing. Anthropic wordt aangewezen als Toeleveringsketenrisico. Het gevolg: elk bedrijf dat zaken doet met het Amerikaanse leger zou Anthropic uit zijn systemen moeten verwijderen. Aangezien Anthropic verbonden is met AWS (Amazon), Palantir en talrijke overheidspartners, zou de economische schade aanzienlijk zijn.

Defense Production Act. Een oorlogsproductiewet uit 1950 wordt ingeroepen om een AI-bedrijf te dwingen zijn technologie over te dragen. Het Pentagon stelt de deadline op vrijdag, 17:01 uur.

Het tweede niveau is het opmerkelijkst. Toeleveringsketenaanwijzingen waren tot nu toe voorbehouden aan buitenlandse tegenstanders: Huawei (China), Kaspersky (Rusland). Toepassing van het instrument op een binnenlands Amerikaans bedrijf zou een precedent scheppen.

Verder dan één bedrijf

De Anthropic-zaak demonstreert een mechanisme dat relevant is voor elk technologiebedrijf met hoofdkantoor in de Verenigde Staten.

Met een overheidscontract kan een bedrijf worden geclassificeerd als kritieke toeleveringsketen, via de Defense Production Act worden gedwongen zijn technologie over te dragen, en economisch worden geïsoleerd door een toeleveringsketenaanwijzing. Dit is niet beperkt tot AI. Het is potentieel van toepassing op elke technologie die het Pentagon als defensierelevant beschouwt: cloudinfrastructuur, kwantumcomputers, biotechnologie, halfgeleiders, cryptografie.

Zonder overheidscontract blijft het risico bestaan. De Defense Production Act staat de overheid toe bedrijven te dwingen goederen te leveren die zij als defensierelevant classificeert — ook zonder bestaande zakelijke relatie. Biden gebruikte de DPA in 2023 om AI-bedrijven te verplichten veiligheidstesten uit te voeren en informatie te delen. De huidige toepassing zou een aanzienlijke escalatie zijn, maar het juridisch kader bestaat.

In beide scenario’s verliest het bedrijf de controle over hoe zijn technologie wordt ingezet. Het blijft in naam privaat — maar de beslissing over hoe die technologie wordt ingezet, ligt bij de staat.

Consequenties voor vestigingsplaats

Vanuit strategisch oogpunt introduceert de Anthropic-zaak een nieuw afwegingskader voor elk bedrijf dat propriëtaire technologie van strategische waarde ontwikkelt.

De instrumenten die beschikbaar zijn voor de Amerikaanse overheid zijn niet beperkt tot oorlogstijd of noodsituaties:

  • CLOUD Act — toegang tot gegevens
  • Defense Production Act — toegang tot technologie
  • Toeleveringsketenrisicoaanwijzing — economische isolatie bij weigering

Alle drie worden hier ingezet of mee gedreigd in de context van een contractgeschil.

Risicovergelijking per jurisdictie

Hoofdkantoor in de VSHoofdkantoor buiten de VS
Kapitaal en ecosysteemHoogste mondiale concentratie van durfkapitaal, talent en infrastructuurLagere toegang tot kapitaal, maar groeiende alternatieven (EU, VK, Canada, Singapore)
OverheidstoegangVolledige wettelijke toegang tot gegevens en technologieAfhankelijk van lokale jurisdictie
DwangDwang via Defense Production Act mogelijkGeen vergelijkbaar instrument in de meeste jurisdicties
Economisch risicoEconomische isolatie bij niet-medewerkingMogelijk verlies van toegang tot de Amerikaanse markt

De waarschuwing reikt verder dan AI-bedrijven. Het geldt voor elke technologie die de staat als defensierelevant zou kunnen classificeren: kwantumcomputers, biotechnologie, cryptografie, halfgeleiders, ruimtevaart, cybersecurity, robotica.

Het tegenargument

Silicon Valley biedt nog steeds ’s werelds hoogste concentratie van durfkapitaal, talent en infrastructuur. Geen andere locatie komt in de buurt. Een massale uittocht van technologiebedrijven is op korte termijn onwaarschijnlijk.

Wat waarschijnlijk wel verandert is de verfijning van de vestigingsplaatsbeslissing. Bedrijven waarvan het bedrijfsmodel afhankelijk is van mondiaal vertrouwen — met name richting Europese, Aziatische of overheidsklanten — zullen de VS als strategische risicofactor moeten meewegen. Niet als diskwalificerend criterium, maar als variabele die in deze vorm eerder niet bestond.

Europese en Aziatische alternatieven winnen aan relevantie in deze context. Mistral (Frankrijk), Aleph Alpha (Duitsland), DeepSeek (China) — zij worden aantrekkelijker voor klanten die regelgevende onafhankelijkheid van de Verenigde Staten vereisen.

De strategische respons voor getroffen bedrijven is waarschijnlijk niet vermijding maar structurering: een holdingmaatschappij buiten de VS, intellectueel eigendom in een neutrale jurisdictie, operationele aanwezigheid in de VS voor de Amerikaanse markt. Vergelijkbaar met wat gebeurde bij cloudaanbieders en dataresidentie na de Snowden-onthullingen.

Alleen gaat het dit keer niet om gegevens. Het gaat om de technologie zelf.

Bronnen


Themaoverzicht: AI & Machine Learning