Im Februar 2026 stellt das US-Verteidigungsministerium dem KI-Unternehmen Anthropic ein Ultimatum. Die Forderung: uneingeschränkter Zugang zu Anthropics KI-Modellen – einschließlich Anwendungen, die Anthropics eigene Nutzungsbedingungen ausdrücklich verbieten. Die Drohung: ein Kriegsproduktionsgesetz aus dem Jahr 1950.

Sieben Monate zuvor hatte dasselbe Unternehmen einen 200-Millionen-Dollar-Vertrag mit demselben Verteidigungsministerium unterzeichnet. Anthropic hat verantwortungsvolle KI-Entwicklung zum Gründungsprinzip erklärt – und war zugleich das erste KI-Unternehmen, das für den Einsatz auf klassifizierten Militärnetzwerken zugelassen wurde.

Der Konflikt legt Mechanismen offen, die weit über ein einzelnes Unternehmen hinausreichen.

Worum es nicht geht

Die Frage des Datenzugangs ist in diesem Konflikt nicht relevant. Das US-Justizministerium verfügt seit 2018 über den CLOUD Act (Clarifying Lawful Overseas Use of Data Act), der US-Behörden den Zugriff auf sämtliche Daten erzwingt, die von US-Unternehmen gespeichert werden – unabhängig davon, wo auf der Welt diese Daten physisch liegen. Das gilt für Microsoft, Google, Amazon, Meta, OpenAI, Anthropic und jedes andere US-Technologieunternehmen.

Ob Anthropic dem Pentagon Zugang zu seiner KI-Technologie gewährt oder nicht: Die US-Regierung hatte, hat und wird Zugriff auf Nutzerdaten haben, solange der Anbieter eine US-Firma ist.

Was zur Debatte steht, ist etwas anderes: der uneingeschränkte Zugang zur Technologie selbst – zur Nutzung der KI-Modelle für Massenüberwachung und autonome Waffensysteme.

Sicherheitsversprechen und Militärvertrag

Anthropic hat sich als Unternehmen positioniert, das verantwortungsvolle KI-Entwicklung in den Mittelpunkt stellt. Die Acceptable Use Policy verbietet explizit die Massenüberwachung von Bevölkerungen und den Einsatz autonomer Waffensysteme ohne menschliche Kontrolle.

Gleichzeitig hat das Unternehmen im Juli 2025 einen 200-Millionen-Dollar-Prototypenvertrag mit dem Department of Defense angenommen, eigene Claude Gov Models für Regierungskunden entwickelt und über Partner wie Palantir bereits auf klassifizierten Militärnetzwerken operiert. Anthropic war zum Zeitpunkt des Konflikts das einzige KI-Unternehmen, das für den Einsatz auf klassifizierten Systemen zugelassen war.

  • Wer einen Vertrag mit dem Verteidigungsministerium eingeht, begibt sich in dessen rechtlichen und operativen Einflussbereich.
  • Wer auf klassifizierten Netzwerken operiert, wird zur kritischen Infrastruktur – und damit zum potenziellen Ziel regulatorischer Erzwingung.
  • Wer 200 Millionen Dollar vom DoD annimmt, schafft eine wirtschaftliche Abhängigkeit, die als Hebel genutzt werden kann.

Anthropic scheint darauf gesetzt zu haben, dass die eigenen Nutzungsbedingungen als vertragliche Einschränkung respektiert werden. Das DoD sieht das anders. Es betrachtet die bestehenden Zahlungen und Implementierungen als Grundlage dafür, Anthropic als Teil der militärischen Lieferkette zu behandeln und sämtliche Einschränkungen aufzuheben – durch vertraglichen Druck, durch die Einstufung als Lieferkettenrisiko oder durch Anwendung des Defense Production Act.

Drei Eskalationsstufen

Vertragskündigung. Die naheliegendste Maßnahme: Kündigung des 200-Millionen-Dollar-Vertrags. Für Anthropic finanziell verkraftbar, da das Unternehmen primär vom kommerziellen Markt lebt.

Lieferketten-Einstufung. Anthropic wird als Supply Chain Risk deklariert. Die Konsequenz: Jedes Unternehmen, das mit dem US-Militär Geschäfte macht, müsste Anthropic aus seinen Systemen entfernen. Da Anthropic über AWS (Amazon), Palantir und zahlreiche Regierungspartner vernetzt ist, wäre der wirtschaftliche Schaden erheblich.

Defense Production Act. Ein Kriegsproduktionsgesetz von 1950 wird angewendet, um ein KI-Unternehmen zur Herausgabe seiner Technologie zu zwingen. Das Pentagon setzt die Frist auf Freitag, 17:01 Uhr.

Bemerkenswert ist die zweite Stufe. Die Einstufung als Lieferkettenrisiko war bisher ausländischen Akteuren vorbehalten: Huawei (China), Kaspersky (Russland). Die Anwendung gegen ein inländisches US-Unternehmen wäre ein Präzedenzfall.

Über den Einzelfall hinaus

Der Fall Anthropic demonstriert einen Mechanismus, der für jedes in den USA ansässige Technologieunternehmen relevant ist.

Mit Regierungsvertrag kann ein Unternehmen als kritische Lieferkette eingestuft, per Defense Production Act zur Herausgabe von Technologie gezwungen und durch die Lieferketten-Einstufung wirtschaftlich isoliert werden. Das betrifft nicht nur KI. Es betrifft potenziell jede Technologie, die das Pentagon als verteidigungsrelevant einstuft: Cloud-Infrastruktur, Quantencomputing, Biotechnologie, Halbleiter, Kryptographie.

Ohne Regierungsvertrag besteht das Risiko ebenfalls. Der Defense Production Act erlaubt es der Regierung, Unternehmen zur Bereitstellung von Gütern zu zwingen, die als verteidigungsrelevant eingestuft werden – auch ohne bestehende Geschäftsbeziehung. Biden nutzte den DPA 2023, um KI-Firmen zu Sicherheitstests und Informationsweitergabe zu verpflichten. Die aktuelle Anwendung wäre eine deutliche Ausweitung, aber der rechtliche Rahmen existiert.

In beiden Fällen verliert das Unternehmen die Kontrolle darüber, wie seine Technologie eingesetzt wird. Es bleibt formal privat – aber die Entscheidung über den Verwendungszweck liegt beim Staat.

Konsequenzen für den Wirtschaftsstandort

Für Technologieunternehmen, die global operieren und deren Geschäftsmodell auf Vertrauen basiert, wird der Standort USA zunehmend zum Haftungsrisiko.

Europäische Kunden müssen unter der DSGVO rechtfertigen, warum sie einem Anbieter vertrauen, dessen Technologie jederzeit vom US-Militär beansprucht werden kann. Unternehmen in regulierten Branchen – Gesundheit, Finanzen, kritische Infrastruktur – stehen vor der Frage, ob ein US-KI-Anbieter unter diesen Umständen noch compliant ist. Internationale Regierungen, die US-KI-Technologie einsetzen, müssen davon ausgehen, dass diese Technologie parallel vom US-Militär genutzt wird.

Die Botschaft an den Markt ist schwer zu entkräften: Die Nutzungsbedingungen eines US-Unternehmens gelten genau so lange, wie die US-Regierung sie nicht aushebelt.

Gleichzeitig setzt der Fall ein Signal an die Branche selbst. Anthropic war eines der wenigen Unternehmen, das KI-Sicherheit nicht nur als Marketing, sondern als operative Einschränkung ernst genommen hat. OpenAI, Google und xAI haben bereits zugestimmt, ihre KI für alle “lawful purposes” freizugeben. Anthropic war der letzte große US-Anbieter, der dem Militär Grenzen setzte. Wenn auch Anthropic nachgibt – oder per Gesetz dazu gezwungen wird –, fällt diese letzte Grenze. Für den Wettlauf um KI-Sicherheitsstandards bedeutet das: weniger Anreiz für Einschränkungen, die ohnehin erzwungen werden können.

Geopolitische Kettenreaktionen

Der Fall hat Auswirkungen, die über die US-Technologiebranche hinausreichen.

Präzedenzwirkung. Wenn die USA den Defense Production Act nutzen, um ein KI-Unternehmen zur militärischen Zusammenarbeit zu zwingen, beobachten andere Staaten das – und können es als Rechtfertigung für eigene Maßnahmen heranziehen. China, Russland, aber auch Indien oder die Türkei könnten identische Mechanismen auf ihre Technologieunternehmen anwenden. Die Argumentation liegt auf der Hand: Selbst die USA tun es.

Marktfragmentierung. Die logische Konsequenz ist eine Aufspaltung des globalen KI-Marktes entlang geopolitischer Linien: US-KI für den US-Einflussbereich, chinesische KI (DeepSeek, Baidu) für den chinesischen, europäische KI für regulatorisch souveräne Märkte. Jede Region mit eigenen Standards, eigener Kontrolle. Das ist das Gegenteil eines offenen Technologiemarktes – und erhöht die Kosten für alle Beteiligten.

Instrumentalisierung der Lieferketten-Einstufung. Die Drohung, ein inländisches Unternehmen als Supply Chain Risk zu deklarieren, weil es ethische Standards nicht aufgeben will, macht das Instrument beliebig einsetzbar – gegen jedes Unternehmen, das sich staatlichen Forderungen widersetzt.

Investorenrisiko. Anthropic plant laut NPR noch in diesem Jahr einen Börsengang. Der Konflikt schafft eine neue Risikokategorie: regulatorisches Erzwingungsrisiko – nicht durch Regulierung im klassischen Sinne, sondern durch die Möglichkeit, das Geschäftsmodell per Kriegsgesetz umzuschreiben.

Standortrisiko USA: Eine strategische Bewertung

Aus strategischer Sicht entsteht durch den Fall Anthropic ein neues Kalkül für jedes Unternehmen, das proprietäre Technologie von strategischem Wert entwickelt.

Die Instrumente, die der US-Regierung zur Verfügung stehen, sind nicht an Kriegszeiten oder Notstände gebunden:

  • CLOUD Act – Zugriff auf Daten
  • Defense Production Act – Zugriff auf Technologie
  • Supply Chain Risk Designation – wirtschaftliche Isolation bei Verweigerung

Alle drei werden hier im Rahmen eines Vertragsstreits eingesetzt oder angedroht.

Risikovergleich nach Standort

Standort USAStandort außerhalb USA
Kapital und ÖkosystemHöchste Konzentration an Risikokapital, Talenten und Infrastruktur weltweitGeringerer Kapitalzugang, aber wachsende Alternativen (EU, UK, Kanada, Singapur)
Staatlicher ZugriffVoller Zugriff auf Daten und Technologie per GesetzAbhängig von lokaler Jurisdiktion
ErzwingungErzwingung per Defense Production Act möglichKein vergleichbares Instrument in den meisten Jurisdiktionen
Wirtschaftliches RisikoWirtschaftliche Isolation bei NichtkooperationPotenzieller Verlust des US-Marktzugangs

Die Warnung richtet sich dabei nicht nur an KI-Unternehmen. Sie betrifft jede Technologie, die der Staat als verteidigungsrelevant einstufen könnte: Quantencomputing, Biotechnologie, Kryptographie, Halbleiter, Raumfahrt, Cybersecurity, Robotik.

Die Gegenrechnung

Silicon Valley bietet nach wie vor die weltweit höchste Konzentration an Risikokapital, Talenten und Infrastruktur. Kein anderer Standort kommt derzeit in die Nähe. Ein massenhafter Exodus von Technologieunternehmen ist kurzfristig nicht zu erwarten.

Was sich verändern dürfte, ist die Differenziertheit der Standortentscheidung. Unternehmen, deren Geschäftsmodell auf globalem Vertrauen basiert – insbesondere gegenüber europäischen, asiatischen oder staatlichen Kunden –, werden den US-Standort als strategischen Risikofaktor bewerten müssen. Nicht als Ausschlusskriterium, aber als Variable, die es vorher in dieser Form nicht gab.

Europäische und asiatische Alternativen gewinnen in diesem Kontext an Bedeutung. Mistral (Frankreich), Aleph Alpha (Deutschland), DeepSeek (China) – sie werden für Kunden attraktiver, die regulatorische Unabhängigkeit von den USA benötigen.

Die strategische Antwort für betroffene Unternehmen ist dabei wahrscheinlich nicht Meidung, sondern Strukturierung: Holding außerhalb der USA, geistiges Eigentum in einer neutralen Jurisdiktion, operative Präsenz in den USA für den US-Markt. Genau so, wie es nach den Snowden-Enthüllungen bei Cloud-Anbietern mit Datenhaltung geschehen ist.

Nur geht es diesmal nicht um Daten. Es geht um die Technologie selbst.