Im September 2023 stellte Anthropic ein Dokument vor, das in der KI-Branche als wegweisend galt: die Responsible Scaling Policy (RSP). Das Kernversprechen war ungewöhnlich klar: Wenn ein KI-Modell bestimmte Fähigkeitsschwellen überschreitet, wird die Entwicklung pausiert — so lange, bis die Sicherheit nachweislich gewährleistet ist. OpenAI und Google DeepMind übernahmen kurz darauf ähnliche Frameworks.

Am 24. Februar 2026 hat Anthropic dieses Versprechen zurückgenommen. Die neue RSP 3.0 ersetzt verbindliche Entwicklungsstopps durch „öffentlich erklärte, aber nicht bindende Ziele". Das Unternehmen, das als Gewissen einer Branche galt, hat seine rote Linie verschoben.

Dieser Schritt fällt in eine Woche, in der das US-Verteidigungsministerium Anthropic ein Ultimatum stellte: Entweder das Unternehmen liefert sein Modell Claude ohne Sicherheitsbeschränkungen an das Pentagon — oder es drohen der Defense Production Act und die Einstufung als „Lieferkettenrisiko".

Die Frage, die sich daraus ergibt, ist nicht, ob Anthropic ein verantwortungsvolles Unternehmen ist. Die Frage ist, was es für jeden bedeutet, der auf diese Technologie vertraut — als Privatperson, als Unternehmen, als europäische Volkswirtschaft.

Was sich geändert hat — in einfachen Worten

Anthropics bisheriges Sicherheitsmodell funktionierte wie eine Ampelschaltung. Sogenannte AI Safety Levels (ASL) stuften die Fähigkeiten eines Modells ein — je höher die Stufe, desto strenger die Sicherheitsauflagen. Entscheidend war: Bevor ein Modell die nächste Stufe erreichen durfte, mussten die entsprechenden Schutzmaßnahmen nachweislich funktionieren. Funktionierte der Schutz nicht, wurde nicht weiterentwickelt. Ein hartes Stopp-Signal.

Die neue RSP 3.0 ersetzt dieses Stopp-Signal durch etwas, das Anthropic selbst als „öffentlich erklärte, aber nicht bindende Ziele" beschreibt. Statt fester Wenn-dann-Verpflichtungen gibt es jetzt eine Frontier Safety Roadmap — einen Plan mit ambitionierten, aber eben unverbindlichen Meilensteinen.

Anthropic ist dabei bemerkenswert transparent über die Gründe. In der offiziellen Ankündigung nennt das Unternehmen drei Faktoren:

  1. Eine „Grauzone der Ambiguität": Die Wissenschaft der Modellbewertung sei nicht weit genug entwickelt, um eindeutig festzustellen, ob ein Modell eine Fähigkeitsschwelle überschritten hat.
  2. Ein „anti-regulatorisches politisches Klima": Die US-Regierung bewege sich in Richtung Wettbewerbsfähigkeit und Wirtschaftswachstum, während Sicherheitsdiskussionen „noch keine nennenswerte Dynamik auf Bundesebene erreicht haben".
  3. Einseitig nicht lösbare Anforderungen: Die höchsten Sicherheitsstufen (ASL-4 und ASL-5) seien „möglicherweise unmöglich ohne kollektives Handeln umzusetzen" — und genau dieses kollektive Handeln werde politisch blockiert.

Die Kernaussage, in Anthropics eigenen Worten: Man habe die RSP lieber angepasst, bevor man Sicherheitsstufen erreicht, die man nicht einhalten kann — statt Standards zu definieren, die „leicht zu erfüllen wären", aber den eigentlichen Zweck untergrüben.

Warum: Staatlicher Druck trifft Marktlogik

Die Lockerung fällt nicht in ein Vakuum. Sie ist das Ergebnis eines Drucks, der von zwei Seiten gleichzeitig kommt.

Von oben: Das Pentagon. US-Verteidigungsminister Pete Hegseth gab Anthropic-CEO Dario Amodei am 24. Februar eine Frist bis Freitag, um Claudes Sicherheitsbeschränkungen für militärische Nutzung aufzuheben. Die Drohung: Entweder das Unternehmen kooperiert — oder die Regierung erzwingt die Kooperation über den Defense Production Act. Hegseth sagte laut Axios, er werde nicht zulassen, dass ein Unternehmen dem Pentagon vorschreibt, wie es operative Entscheidungen trifft.

Ob die Regierung Anthropic tatsächlich zwingen kann, ein Produkt ohne Sicherheitsgarantien zu liefern, ist juristisch umstritten. Alan Rozenshtein, Professor an der University of Minnesota und Redakteur bei Lawfare, analysiert die Rechtslage differenziert: Die Drohung allein reicht möglicherweise aus. James Baker, ehemaliger Chefrichter am US-Berufungsgericht für Streitkräfte, formuliert es so: „Manchmal genügt die Verfügbarkeit potenzieller Autorität als Hebel, um ein Ergebnis durch Konsultation zu erzielen, ohne das Gesetz tatsächlich anzuwenden."

Von der Seite: Die Konkurrenz. Während Anthropic auf seine Sicherheitsvorgaben besteht, haben andere KI-Unternehmen bereits nachgegeben. OpenAI und Google stellen ihre Modelle dem Pentagon für „alle gesetzlich zulässigen Zwecke" zur Verfügung. Elon Musks xAI hat einen Vertrag für den Einsatz in Verschlusssachen-Umgebungen unterzeichnet. Anthropic steht zunehmend allein — mit dem technisch besten Modell für militärische Anwendungen, aber den strengsten Einschränkungen.

Die Konsequenz ist ein klassisches Gefangenendilemma: Wer als Erster auf Sicherheit verzichtet, gewinnt den Auftrag. Wer als Letzter standhält, verliert den Markt. Für eine vertiefte Analyse der Pentagon-Anthropic-Konfrontation, siehe unseren vorherigen Beitrag.

Zwei Welten: Wer verschärft, wer lockert

Was Anthropics Kurskorrektur besonders bemerkenswert macht, ist der Kontrast zum Rest der Welt. Während die USA ihre KI-Sicherheitsstandards aufweichen, ziehen nahezu alle anderen relevanten Wirtschaftsräume in die entgegengesetzte Richtung.

Europäische Union: Der EU AI Act ist seit August 2024 in Kraft — das weltweit erste verbindliche KI-Gesetz. Seit Februar 2025 gelten acht ausdrücklich verbotene KI-Praktiken, darunter Social Scoring und flächendeckende biometrische Überwachung. Seit August 2025 gelten Transparenzpflichten für General-Purpose-AI-Modelle. Mehr als 230 Unternehmen haben den EU AI Pact unterzeichnet — eine freiwillige Selbstverpflichtung zur frühzeitigen Einhaltung.

Großbritannien: Das AI Safety Institute (AISI) beschäftigt über 100 technische Fachkräfte, erhält vorab Zugang zu führenden KI-Modellen für Sicherheitsprüfungen und verfügt über ein Jahresbudget von 66 Millionen Pfund. Die Bletchley-Erklärung von November 2023 — unterzeichnet von 29 Staaten, darunter sowohl die USA als auch China — erkannte an, dass fortschrittliche KI „erhebliche Risiken, einschließlich schwerwiegender, sogar katastrophaler Schäden" birgt.

Kalifornien: Selbst innerhalb der USA gibt es Gegenbewegungen. SB 53, im September 2025 von Gouverneur Newsom unterzeichnet, verpflichtet Anbieter von Frontier-Modellen zur Veröffentlichung von Sicherheitsrahmenwerken und zur Meldung kritischer Vorfälle innerhalb von 15 Tagen.

China: Die Interim Measures for Generative AI, seit August 2023 in Kraft, verlangen Sicherheitsbewertungen, Algorithmus-Registrierung und die Kennzeichnung KI-generierter Inhalte.

USA auf Bundesebene: Die Gegenrichtung. Präsident Bidens Executive Order 14110 — 36 Seiten mit verpflichtenden Sicherheitsberichts-, Test- und Transparenzanforderungen — wurde am ersten Amtstag der neuen Regierung widerrufen. Der Ersatz: Executive Order 14179 — zwei Seiten, null Sicherheitsanforderungen, ein erklärtes Ziel: „Amerikas globale KI-Dominanz aufrechterhalten und ausbauen."

Der Kontrast könnte kaum deutlicher sein. Im November 2023 unterschrieben die USA die Bletchley-Erklärung, die KI-Risiken als potenziell katastrophal anerkennt. Vierzehn Monate später widerriefen sie jede bindende Sicherheitsmaßnahme auf Bundesebene.

Was das für den europäischen Wirtschaftsraum bedeutet

Für europäische Unternehmen und Privatpersonen ist diese Entwicklung mehr als ein transatlantischer Regulierungsvergleich. Was sich abzeichnet, ist ein grundlegend neues Risikoprofil — und ein Dilemma, das keine einfache Lösung hat.

Das Produktrisiko. Wenn ein KI-Anbieter seine Sicherheitsvorgaben unter staatlichem Druck lockert, betrifft das nicht nur militärische Anwendungen. Anthropic entwickelt nicht zwei getrennte Modelle — eines für das Pentagon und eines für den Rest der Welt. Die Architektur, die internen Prioritäten, die Ressourcenverteilung zwischen Sicherheitsforschung und Funktionsentwicklung: All das verschiebt sich. Chris Painter von Metr, einer gemeinnützigen Organisation zur Risikobewertung von KI, warnt vor einem „Frog-Boiling-Effekt": Ohne binäre Schwellenwerte, die als Warnsignal dienen, bauen sich Risiken schleichend auf — bis kein klarer Moment mehr eintritt, der Alarm auslöst.

Das Compliance-Risiko. Der EU AI Act macht den Einsatz von KI-Systemen in der EU nicht automatisch sicherer — aber er macht die Nutzer haftbar. Unternehmen, die Hochrisiko-KI-Systeme einsetzen, müssen deren Risiken dokumentieren und bewerten — auch dann, wenn der Anbieter in den USA sitzt und seine Standards gerade gesenkt hat.

Das Souveränitätsrisiko. Die Konfrontation zwischen Pentagon und Anthropic zeigt ein Muster, das über KI hinausgeht: US-Unternehmen operieren unter einem Rechtsrahmen, in dem die Regierung jederzeit die Spielregeln ändern kann — nicht durch transparente Gesetzgebung, sondern durch exekutive Drohungen. Der CLOUD Act betrifft Daten. Der Defense Production Act betrifft Produkte. Die Logik ist dieselbe: Was ein US-Unternehmen seinen Kunden zusichert, steht unter dem Vorbehalt dessen, was die US-Regierung erlaubt.

Die Zwickmühle: Strengere Regulierung oder schnellerer Fortschritt

Hier wird es für Europa unbequem. Denn die Aufweichung von KI-Sicherheitsstandards bringt nicht nur Risiken — sie bringt auch Geschwindigkeit.

Weniger Sicherheitsauflagen bedeuten schnellere Iteration, schnellere Produkteinführung, schnelleren technologischen Fortschritt. US-Unternehmen, die von Sicherheitsprüfungen und Dokumentationspflichten befreit werden, können Ressourcen in Entwicklung statt in Compliance investieren. Das ist kein theoretisches Szenario — es passiert bereits.

Für europäische Unternehmen entsteht daraus eine Situation, in der beide verfügbaren Optionen Kosten haben:

Innerhalb des europäischen Regulierungsrahmens bleiben bedeutet: klare Regeln, Rechtssicherheit, Verbraucherschutz — aber auch höhere Kosten, längere Entwicklungszyklen und die wachsende Gefahr, dass der technologische Abstand zu US- und chinesischen Anbietern weiter zunimmt. Die Regulierungslast trifft europäische Start-ups und Mittelständler, während US-Konkurrenten davon befreit werden.

Sich der unregulierten Dynamik aussetzen bedeutet: Zugang zu den leistungsfähigsten Modellen ohne Einschränkungen — aber auch Abhängigkeit von Anbietern, deren Sicherheitsversprechen unter politischem Druck revidiert werden können. Wer heute auf ein US-KI-Produkt ohne europäische Alternative setzt, akzeptiert implizit, dass die Spielregeln jederzeit ohne Vorankündigung geändert werden können.

Die entscheidende offene Frage: Wird Europa seinen strengen Regulierungsrahmen halten — und den Preis langsamerer Innovation zahlen? Oder wird der Druck eines neuen KI-Wettrüstens, in dem Künstliche Intelligenz zum militärischen Machtinstrument wird, die EU dazu bringen, ihre eigenen Standards aufzuweichen?

Einen neutralen Standort — strenge Sicherheit ohne Wettbewerbsnachteil — scheint es nicht mehr zu geben.

Was das konkret für Sie bedeutet

Für Privatpersonen: Die KI-Systeme, die Sie täglich nutzen — von Chatbots über Übersetzungsdienste bis zu KI-gestützter Recherche — werden von Unternehmen entwickelt, deren Sicherheitsversprechen unter politischem Druck stehen. Was gestern als garantiert galt, ist heute verhandelbar. Das bedeutet nicht, dass diese Werkzeuge morgen unsicher werden. Es bedeutet, dass die Mechanismen, die ihre Sicherheit gewährleisten sollten, schwächer geworden sind — und dass es keine unabhängige Instanz gibt, die dagegen einschreiten kann.

Für Unternehmen: Jede europäische Organisation, die US-KI-Produkte einsetzt, sollte ihr Abhängigkeitsprofil neu bewerten. Nicht aus Prinzip, sondern aus nüchternem Risikomanagement. Wenn der Anbieter Ihres KI-Systems gezwungen werden kann, seine Sicherheitsstandards unter politischem Druck zu ändern, ist das ein operatives Risiko — vergleichbar mit einer Lieferkette, die durch ein einzelnes Land mit instabiler Rechtslage verläuft. Unser digitaler Risiko-Audit bietet einen strukturierten Einstieg in diese Bewertung.

Für die Debatte: Die Aufweichung von Anthropics RSP ist kein Einzelfall. Sie ist ein Symptom einer Entwicklung, in der kommerzielle KI-Sicherheit und staatliche Machtinteressen kollidieren. Nik Kairinos, CEO von Raids AI, bringt es auf den Punkt: Freiwillige Selbstverpflichtungen werden im Zweifelsfall revidiert. Das ist kein moralisches Versagen — es ist eine strukturelle Realität. Und es ist das stärkste Argument dafür, dass verbindliche Regulierung — bei all ihren Nachteilen — der einzige Mechanismus ist, der diesem Druck standhalten kann.

Eines zeigt der Fall Anthropic mit schmerzhafter Klarheit: In einer Welt, in der KI zur strategischen Waffe wird, gibt es keinen risikofreien Standort mehr. Weder innerhalb der Regulierung noch außerhalb.

Quellen


Themenübersicht: Alle Artikel auf digital-independence.org →