Freitag, 27. Februar 2026. Kurz vor fünf.

In einem Verhandlungsraum des Pentagons lag ein Kompromiss auf dem Tisch. Das KI-Unternehmen Anthropic hatte zwei rote Linien gezogen: keine autonomen Waffen, keine Massenüberwachung. Das Pentagon hatte bei den autonomen Waffen nachgegeben — die Formulierung „as appropriate", das Schlupfloch für den Einsatz von Anthropics KI-Modell Claude in Waffensystemen, sollte gestrichen werden. Anthropic hatte im Gegenzug angeboten, mit der NSA an Daten zu arbeiten, die unter richterlicher Aufsicht nach dem FISA-Gesetz erhoben wurden.

Zwei rote Linien, über die man hatte reden können. Ein Ergebnis schien möglich.

Dann forderte das Pentagon etwas anderes: Zugang zu kommerziellen Massendaten amerikanischer Bürger — Chatbot-Anfragen, GPS-Standorte, Kreditkartentransaktionen. Nicht Daten, die ein Gericht freigegeben hatte. Daten, die Privatpersonen und Unternehmen Claude im normalen Betrieb anvertrauen. Anthropic lehnte ab. Um 17:01 Uhr lief die Frist ab.

Drei Stunden später erklärte US-Kriegsminister Pete Hegseth Anthropic zum „Lieferkettenrisiko" — eine Einstufung, die bisher ausschließlich ausländischen Akteuren vorbehalten war. Am nächsten Morgen unterzeichnete OpenAI den Ersatzvertrag.

Was in dieser Woche geschah, ist kein Vertragsstreit. Es ist der bislang deutlichste Fall, in dem die US-Regierung Technologie als Druckmittel einsetzt — nicht gegen einen geopolitischen Rivalen, sondern gegen ein eigenes Unternehmen. Die Instrumente, die dabei zum Einsatz kamen — Sanktionsrecht, Lieferketten-Einstufung, Defense Production Act —, stehen der US-Regierung gegenüber jedem amerikanischen Technologieunternehmen zur Verfügung. Microsoft, Apple, Google, Amazon — auch gegenüber denen, deren Software und Dienste Ihre Mitarbeiter heute Morgen gestartet haben.

Wem gehören die Daten?

Die Verhandlungswoche zwischen Anthropic und dem Pentagon offenbart Details, die erst jetzt durch Berichte von The Atlantic und Golem.de an die Öffentlichkeit gelangt sind.

Der Kern des Scheiterns lag nicht bei autonomen Waffen — dort hatte das Pentagon Zugeständnisse gemacht. Er lag bei einer Frage, die jedes Unternehmen betrifft, das einen Cloud-Dienst nutzt: Wem gehören die Daten, die Kunden einem US-Anbieter anvertrauen?

Das Pentagon verlangte Zugriff auf kommerzielle Datenströme: nicht Material, das ein Gericht für die nationale Sicherheit freigegeben hatte, sondern den gesamten Datenstrom, den Claude im kommerziellen Betrieb verarbeitet — Anfragen von Privatpersonen und Unternehmen, Standortdaten, Finanztransaktionen. Die Grenze zwischen Geheimdienstarbeit und Kundenüberwachung sollte fallen.

Anthropic bot einen Kompromiss: Zusammenarbeit mit der NSA an FISA-Daten — Material, das unter richterlicher Genehmigung erhoben wurde und einen nachrichtendienstlichen Zweck hat. Die Analyse kommerzieller Massendaten ohne richterliche Aufsicht lehnte das Unternehmen ab.

Ein zweiter Streitpunkt war die Bereitstellungsarchitektur. Anthropic argumentierte, dass selbst eine rein cloudbasierte Lösung keine Garantie gegen unkontrollierten Einsatz biete. Moderne militärische Architekturen arbeiten mit Mesh-Netzwerken — dezentralen Strukturen, in denen Daten auf Endgeräten im Einsatzgebiet verarbeitet werden, nicht nur in der Cloud. Ein Modell, das offiziell „nur in der Cloud" läuft, kann in diesen Netzwerken faktisch auf Geräten im Feld landen — ohne dass der Anbieter dies kontrollieren oder verhindern kann.

Emil Michael, der die Pentagon-Seite der Verhandlungen leitete, nannte Anthropic-CEO Dario Amodei öffentlich einen „Lügner" mit einem „Gottkomplex". Golem.de zieht eine historische Parallele: Oppenheimer — der Physiker, der die Atombombe baute und dann versuchte, die Wasserstoffbombe zu verhindern. Die US-Regierung entzog ihm die Sicherheitsfreigabe. Nicht weil er unrecht hatte, sondern weil er unbequem wurde.

Bemerkenswert: Trotz der Einstufung als Lieferkettenrisiko nutzte das US-Militär Claude in den Tagen danach weiterhin für aktive Militäroperationen — unter Berufung auf die sechsmonatige Übergangsklausel des bestehenden Vertrags. Das Pentagon erklärte Anthropics KI gleichzeitig zum Sicherheitsrisiko und zum unverzichtbaren Werkzeug.

Gleichzeitig Sicherheitsrisiko und unverzichtbares Werkzeug — das war die Verhandlungsposition der mächtigsten Militärmacht der Welt gegenüber einem Unternehmen, das sich weigerte, seine Kunden zu überwachen.

Der Ersatzdeal — und seine Grenzen

Einen Tag nach dem Scheitern der Anthropic-Verhandlungen unterzeichnete OpenAI einen Vertrag mit dem Pentagon. CEO Sam Altman präsentierte den Deal als verantwortungsvollen Kompromiss — mit drei „roten Linien":

  1. Keine Massenüberwachung von US-Bürgern im Inland
  2. Keine autonomen Waffen — alle letalen Entscheidungen durch Menschen
  3. Kein Social-Credit-System für US-Bürger

Die Formulierung klingt beruhigend. Die Details weniger.

OpenAI stellt seine Modelle dem Pentagon für „alle gesetzlich zulässigen Zwecke" zur Verfügung. Der Vertrag referenziert die geltende Rechtslage — mit der Einschränkung, dass sich Gesetze ändern können.

Das Cloud-Problem. OpenAI setzt auf eine rein cloudbasierte Bereitstellung, bei der das Modell unter OpenAIs Kontrolle bleibt. Genau diesen Ansatz hatte Anthropic als unzureichend verworfen — mit dem Argument, dass Mesh-Netzwerke die Unterscheidung zwischen Cloud und Endgerät in modernen Militärarchitekturen technisch aushebeln.

Das Gesetzesproblem. „Alle gesetzlich zulässigen Zwecke" klingt nach einer klaren Begrenzung. Aber Gesetze werden geschrieben — und umgeschrieben. Executive Order 14110, die KI-Sicherheitsstandards auf Bundesebene festschrieb, wurde am ersten Amtstag der neuen Regierung widerrufen. Was heute verboten ist, kann morgen erlaubt sein. Der Vertrag bindet OpenAI an den Buchstaben des Gesetzes, nicht an ethische Prinzipien.

Das Glaubwürdigkeitsproblem. Altman hatte zunächst Solidarität mit Anthropic signalisiert. Dann unterzeichnete er den Ersatzvertrag. Die eigenen Mitarbeiter hielten den Deal ihres Unternehmens für den falschen Kompromiss: Rund 100 OpenAI-Beschäftigte unterzeichneten einen offenen Brief, der Anthropics rote Linien ausdrücklich unterstützte.

OpenAI bat die Regierung zudem, dieselben Vertragsbedingungen allen KI-Laboren anzubieten und den Konflikt mit Anthropic beizulegen. Selbst der Unterzeichner des Ersatzvertrags hielt den Umgang mit Anthropic für problematisch — eine bemerkenswerte Distanzierung.

Was passiert, wenn die ethischen Bedenken nicht aus den Chefetagen kommen, sondern trotz ihnen?

Das Muster: Von Iran bis Anthropic

Der Fall Anthropic ist kein Einzelfall. Er ist der jüngste Punkt in einer Eskalationslinie, die sich über Jahrzehnte erstreckt.

Iran. Ein ganzes Land — abgeschnitten von Google, Apple, Cloud-Plattformen, Software-Updates. Seit über einem Jahrzehnt. OFAC-Sanktionen verbieten US-Unternehmen jede Geschäftsbeziehung. Nicht durch Bomben. Durch Lizenzentzug.

Russland. März 2022. Microsoft entzieht russischen Unternehmen den Zugang zu Lizenzen, Cloud-Diensten und Updates. Über Nacht. Ohne Übergangsfrist. Google, Apple, SAP und Oracle folgen. Die Unternehmen handelten nicht freiwillig: US-Sanktionsrecht ließ ihnen keine Wahl.

Huawei. 2019. Die US-Regierung setzt den größten 5G-Ausrüster der Welt auf die Entity List. Keine Chips, keine Software, keine Lizenzen. Die Begründung: nationale Sicherheit. Die Konsequenz: wirtschaftliche Isolation.

Der französische Richter. Ein europäischer Staatsbürger auf europäischem Boden. Richter am Internationalen Strafgerichtshof. Er kann keine Hotelzimmer buchen, kein Auto mieten, nicht online einkaufen — weil der europäische Zahlungsverkehr über Visa und Mastercard läuft und US-Sanktionsrecht greift. (Für eine vertiefte operative Analyse dieses Falls siehe unseren digitalen Risiko-Audit.)

Anthropic. Februar 2026. Erstmals: Ein US-Unternehmen wird als Lieferkettenrisiko eingestuft. Nicht ein ausländischer Akteur. Eine amerikanische Firma, die sich weigerte, ihre eigenen ethischen Grundsätze aufzugeben.

Das Muster ist unverkennbar. Jede Stufe erweitert den Kreis derer, die getroffen werden können: Länder, die als Feinde gelten. Länder in akuten Konflikten. Ausländische Unternehmen. Einzelpersonen auf europäischem Boden. Eigene Unternehmen. Wer gestern noch undenkbar war, ist heute Präzedenzfall.

Jede Lizenz steht unter Vorbehalt

Die Software, die Ihre Mitarbeiter heute Morgen gestartet haben, gehört Ihnen nicht. Sie ist geliehen — unter der Bedingung, dass Washington nichts dagegen hat.

Jede EULA, die ein europäisches Unternehmen mit einem US-Softwareanbieter unterzeichnet, enthält eine Klausel, die selten gelesen wird: die Verpflichtung zur Einhaltung von US-Exportkontroll- und Sanktionsrecht. Diese Klausel steht in den Nutzungsbedingungen von Microsoft, Apple, Google, Amazon, Salesforce, Oracle und praktisch jedem anderen US-Technologieunternehmen.

Was diese Klausel bedeutet: Die Lizenz, die Ihr Unternehmen für Windows, Microsoft 365, AWS oder Google Workspace bezahlt, gilt unter dem Vorbehalt, dass die US-Regierung keine Maßnahme ergreift, die den Zugang einschränkt oder entzieht. Das ist kein theoretisches Szenario — es ist genau das, was in Iran und Russland eingetreten ist.

Die Instrumente, die der US-Regierung zur Verfügung stehen, bilden eine Eskalationsleiter:

InstrumentZugriff aufBisher eingesetzt gegen
CLOUD ActDatenAlle US-Technologieunternehmen
Sanktionsrecht (OFAC)Lizenzen und DiensteIran, Russland, Kuba, Nordkorea, Einzelpersonen
Entity ListTechnologie-ExportHuawei, Kaspersky, ausländische Unternehmen
Defense Production ActTechnologie selbstAnthropic (erstmals gegen ein US-Unternehmen)
Lieferketten-EinstufungWirtschaftliche IsolationHuawei, Kaspersky, Anthropic

Für europäische Unternehmen bedeutet das: Die Nutzungsbedingungen, die Sie mit Ihrem US-Anbieter vereinbart haben, gelten genau so lange, wie die US-Regierung sie nicht aushebelt. Dass dieser Hebel nicht nur theoretisch existiert, hat Broadcom nach der VMware-Übernahme gezeigt — selbst ohne Sanktionen: Preiserhöhungen um das Zehnfache, Abschaffung von Dauerlizenzen, erzwungene Umstellung auf Abonnements. Vendor Lock-in macht es möglich.

(Für die rechtliche Analyse der einzelnen Instrumente siehe unseren Beitrag Pentagon vs. Anthropic.)

Europas Antwort

Am 2. März 2026 schrieb der SPD-Digitalexperte Matthias Mieves Briefe an EU-Kommissionspräsidentin Ursula von der Leyen, CDU-Vorsitzenden Friedrich Merz und weitere Entscheidungsträger in Berlin und Brüssel. Seine Botschaft: Europa solle Anthropic aktiv einladen, seine KI-Entwicklung unter europäischem Recht fortzusetzen (ZEIT / AFP / Reuters, 2. März 2026).

Mieves beschreibt den Druck auf Anthropic als „existenzbedrohend" und argumentiert, dass die EU unter dem EU AI Act „optimale Rahmenbedingungen" für menschenzentrierte KI-Entwicklung biete. Es ist das erste Mal, dass der EU AI Act explizit als Standortvorteil für ein konkretes Unternehmen ins Spiel gebracht wird — nicht als regulatorische Last, sondern als Schutzraum.

Der Vorschlag verdient eine nüchterne Bewertung. Was dafür spricht:

  • Europa hätte Zugang zu einem der leistungsfähigsten KI-Modelle der Welt — entwickelt unter europäischem Recht, betrieben auf europäischer Infrastruktur.
  • Der EU AI Act würde als genau das wirken, wofür er konzipiert wurde: als Rahmen, der verantwortungsvolle KI-Entwicklung ermöglicht statt verhindert.
  • Ein Anthropic-Standort in Europa wäre ein Signal an die globale Tech-Branche, dass europäische Regulierung nicht gleichbedeutend ist mit Innovationsfeindlichkeit.

Was dagegenspricht:

  • Anthropic ist tief in das US-Ökosystem integriert: Hauptinvestor Amazon (8 Mrd. Dollar), Infrastruktur auf AWS, Talent-Pool in San Francisco.
  • Ein Umzug würde das Unternehmen dem Zugriff auf den US-Markt nicht entziehen — und damit nicht dem US-Recht.
  • Die EU hat derzeit weder die Recheninfrastruktur noch das Risikokapital, um ein KI-Unternehmen dieser Größenordnung aus eigener Kraft zu tragen.

Was Mieves’ Vorstoß richtig erfasst: Der Fall Anthropic ist ein Moment, in dem Europa eine strategische Wahl hat. Nicht die Wahl, alle Probleme zu lösen — aber die Wahl, ein Angebot zu machen. Dass Europa die Gelegenheit ungenutzt verstreichen lässt, wäre das eigentliche Risiko. (Für die Analyse, warum Anthropics Sicherheitsstandards unter Druck gerieten und wie sich der EU AI Act vom US-Ansatz unterscheidet, siehe Wenn Sicherheit verhandelbar wird.)

Was das für Sie bedeutet

Für Privatpersonen: Die Technologien, die Sie täglich nutzen — Ihr Betriebssystem, Ihre E-Mail, Ihr Cloud-Speicher, Ihre Zahlungsmittel — werden von US-Unternehmen bereitgestellt, deren Handlungsspielraum unter dem Vorbehalt staatlicher Eingriffe steht. Das war theoretisch schon immer so. Was sich geändert hat, ist die Bereitschaft, diese Eingriffe tatsächlich vorzunehmen — und die Geschwindigkeit, mit der neue Präzedenzfälle geschaffen werden. Von der Sanktionierung ganzer Länder über die Isolation eines chinesischen Konzerns bis zur Einstufung eines eigenen Unternehmens als Sicherheitsrisiko: Der Kreis dessen, was denkbar ist, hat sich in weniger als fünf Jahren fundamental erweitert.

Für Unternehmen: In deutschen Unternehmen werden gerade Administratoren für Microsoft-Produkte gesucht. IT-Abteilungen planen Migrationen auf die nächste Windows-Version. Apple-Geräte werden für den nächsten Flottenzyklus bestellt. Das ist Realitätsverweigerung — als würde man ein Haus renovieren, ohne zu prüfen, wem der Boden gehört. Nicht, weil diese Produkte schlecht wären — sondern weil Unternehmen Personal ausschließlich für Systeme rekrutieren, die im Ernstfall nicht zur Verfügung stehen, anstatt zumindest einen Teil ihrer Mannschaft auf den strategischen Wechsel vorzubereiten, der im Ernstfall den Unterschied zwischen Betriebsunterbrechung und wirtschaftlichem Totalschaden ausmacht.

Der Fall Anthropic addiert eine neue Variable zur Risikogleichung. Bisher galt: US-Anbieter unterliegen dem CLOUD Act (Datenzugriff) und dem Sanktionsrecht (Lizenzentzug bei politischem Anlass). Jetzt kommt hinzu: Der Defense Production Act kann US-Unternehmen zwingen, ihre Technologie gegen den eigenen Willen bereitzustellen — und die Lieferketten-Einstufung kann Unternehmen wirtschaftlich isolieren, die sich weigern.

Für eine vollständige Migration in die digitale Unabhängigkeit kann es in der Timeline bereits zu spät sein. Was nicht zu spät ist: einen Plan zu haben. Administratoren für den Ernstfall zu schulen. Eine Lösung in der Schublade liegen zu haben. Unser digitaler Risiko-Audit bietet einen strukturierten Einstieg in diese Vorbereitung.

Für die Debatte: Europa erkennt die Gefahr, die von der einen Seite ausgeht — einer russischen Kriegsindustrie, die durch drei Jahre Krieg in der Ukraine operative Erfahrungen gesammelt hat, auf die kein EU-Staat vorbereitet ist: tausend Drohnenangriffe auf zivile Infrastruktur pro Nacht, drohnengestützter Krieg in einer Dimension, in der zehn ukrainische Piloten bei einer NATO-Übung zwei komplette Bataillone kampfunfähig machten. Europa spuckt große Töne. Es ist machtlos. Was es dabei vollständig ignoriert, ist die Gefahr, die von der anderen Seite ausgeht. Nicht von Osten. Von der anderen Seite des Atlantiks. Nicht in Form von Panzern. In Form von Lizenzbedingungen.

Europa ist nicht das geliebte Kind, das das heimatliche Haus verlässt. Es ist Aschenputtel. Und es ist kein Prinz in Sicht.

Der Vater in dieser Geschichte ist unberechenbar — ein Mann, der selbst nicht weiß, was er als Nächstes tun wird. Eine Executive Order von 36 Seiten wird am ersten Amtstag widerrufen. Sanktionen werden ohne Konsultation der Handelspartner verhängt. Ein KI-Unternehmen wird zum Lieferkettenrisiko erklärt, während sein Modell parallel für aktive Militäroperationen genutzt wird.

Der Fall Anthropic zeigt auf, dass diese Gefahr und Unberechenbarkeit gerade sichtbar steigt. Das Fenster, in dem die Entscheidung noch eine strategische Wahl ist und keine Reaktion auf eine Krise, wird kleiner.

Wann, wenn nicht jetzt?

Quellen


Themenübersicht: Alle Artikel auf digital-independence.org →