Pentagon kontra Anthropic
W lutym 2026 r. Departament Obrony USA stawia firmie AI Anthropic ultimatum. Żądanie: nieograniczony dostęp do modeli AI Anthropic — w tym zastosowań, których własne warunki korzystania Anthropic wyraźnie zabraniają. Groźba: ustawa o produkcji wojennej z 1950 r.
Siedem miesięcy wcześniej ta sama firma podpisała kontrakt na 200 mln USD z tym samym Departamentem Obrony. Anthropic uczyniło z odpowiedzialnego rozwoju AI zasadę założycielską — i jednocześnie było pierwszą firmą AI dopuszczoną do wdrożenia w utajnionych sieciach wojskowych.
Konflikt ujawnia mechanizmy, które sięgają daleko poza jedną firmę.
O czym to nie jest
W tym konflikcie nie chodzi o dostęp do danych. Od 2018 r. Departament Sprawiedliwości USA dysponuje CLOUD Act (Clarifying Lawful Overseas Use of Data Act), który zmusza amerykańskie firmy do wydawania wszelkich przechowywanych przez nie danych — niezależnie od tego, gdzie na świecie dane te fizycznie się znajdują. Dotyczy to Microsoftu, Google, Amazona, Mety, OpenAI, Anthropic i każdej innej amerykańskiej firmy technologicznej.
Bez względu na to, czy Anthropic udzieli Pentagonowi dostępu do swojej technologii AI, czy nie: rząd USA miał, ma i będzie miał dostęp do danych użytkowników tak długo, jak dostawca jest firmą amerykańską.
Stawką jest coś zupełnie innego: nieograniczony dostęp do samej technologii — do wykorzystania modeli AI w masowej inwigilacji i autonomicznych systemach uzbrojenia.
Zobowiązanie bezpieczeństwa i kontrakt wojskowy
Anthropic pozycjonowało się jako firma stawiająca odpowiedzialny rozwój AI w centrum swojej misji. Jego Polityka dopuszczalnego użycia wyraźnie zabrania masowej inwigilacji ludności i wdrażania autonomicznych systemów uzbrojenia bez nadzoru ludzkiego.
Jednocześnie firma przyjęła kontrakt prototypowy na 200 mln USD z Departamentem Obrony w lipcu 2025 r., opracowała dedykowane modele Claude Gov Models dla klientów rządowych i — za pośrednictwem partnerów takich jak Palantir — działała już w utajnionych sieciach wojskowych. W momencie wybuchu konfliktu Anthropic było jedyną firmą AI dopuszczoną do użycia w systemach utajnionych.
- Każda firma, która zawiera kontrakt z Departamentem Obrony, znajduje się w jego prawnej i operacyjnej strefie wpływów.
- Każda firma działająca w utajnionych sieciach staje się infrastrukturą krytyczną — i potencjalnym celem przymusu regulacyjnego.
- Każda firma, która przyjmuje 200 mln USD od DoD, tworzy zależność ekonomiczną, którą można wykorzystać jako dźwignię.
Anthropic zdawało się zakładać, że jego własne warunki korzystania będą respektowane jako ograniczenie umowne. DoD widzi to inaczej. Traktuje istniejące płatności i wdrożenia jako podstawę do uznania Anthropic za część wojskowego łańcucha dostaw i uchylenia wszystkich ograniczeń — poprzez presję kontraktową, oznaczenie jako ryzyko łańcucha dostaw lub zastosowanie Defense Production Act.
Trzy poziomy eskalacji
Rozwiązanie kontraktu. Najbardziej oczywisty środek: anulowanie kontraktu na 200 mln USD. Finansowo wykonalne dla Anthropic, które większość przychodów czerpie z rynku komercyjnego.
Oznaczenie jako ryzyko łańcucha dostaw. Anthropic zostaje uznane za ryzyko łańcucha dostaw. Konsekwencja: każda firma prowadząca interesy z wojskiem USA musiałaby usunąć Anthropic ze swoich systemów. Zważywszy, że Anthropic jest powiązane z AWS (Amazon), Palantir i licznymi partnerami rządowymi, szkody ekonomiczne byłyby znaczne.
Defense Production Act. Ustawa o produkcji wojennej z 1950 r. zostaje przywołana, by zmusić firmę AI do oddania swojej technologii. Pentagon wyznacza termin na piątek, godz. 17:01.
Drugi poziom jest najbardziej godny uwagi. Oznaczenia ryzyka łańcucha dostaw były dotychczas zarezerwowane dla zagranicznych przeciwników: Huawei (Chiny), Kaspersky (Rosja). Zastosowanie tego instrumentu wobec krajowej firmy amerykańskiej stanowiłoby precedens.
Poza jedną firmą
Sprawa Anthropic pokazuje mechanizm istotny dla każdej firmy technologicznej z siedzibą w Stanach Zjednoczonych.
Z kontraktem rządowym firma może zostać sklasyfikowana jako krytyczny łańcuch dostaw, zmuszona na mocy Defense Production Act do oddania swojej technologii i ekonomicznie odizolowana poprzez oznaczenie ryzyka łańcucha dostaw. To nie ogranicza się do AI. Potencjalnie dotyczy każdej technologii, którą Pentagon uzna za istotną dla obronności: infrastruktury chmurowej, obliczeń kwantowych, biotechnologii, półprzewodników, kryptografii.
Bez kontraktu rządowego ryzyko utrzymuje się. Defense Production Act umożliwia rządowi zmuszanie firm do dostarczania towarów uznanych za istotne dla obronności — nawet przy braku istniejącej relacji biznesowej. Biden użył DPA w 2023 r., by wymagać od firm AI przeprowadzania testów bezpieczeństwa i dzielenia się informacjami. Obecne zastosowanie byłoby znaczącą eskalacją, ale ramy prawne istnieją.
W obu scenariuszach firma traci kontrolę nad sposobem wykorzystania swojej technologii. Pozostaje prywatna z nazwy — ale decyzja o wdrożeniu tej technologii należy do państwa.
Konsekwencje dla lokalizacji biznesu
Z perspektywy strategicznej sprawa Anthropic wprowadza nowy rachunek dla każdej firmy rozwijającej technologię o wartości strategicznej.
Instrumenty dostępne rządowi USA nie ograniczają się do czasu wojny ani sytuacji nadzwyczajnych:
- CLOUD Act — dostęp do danych
- Defense Production Act — dostęp do technologii
- Oznaczenie ryzyka łańcucha dostaw — ekonomiczna izolacja w przypadku odmowy
Wszystkie trzy są wdrażane lub grożone w kontekście sporu kontraktowego.
Porównanie ryzyka według jurysdykcji
| Siedziba w USA | Siedziba poza USA | |
|---|---|---|
| Kapitał i ekosystem | Najwyższa globalna koncentracja venture capital, talentów i infrastruktury | Niższy dostęp do kapitału, ale rosnące alternatywy (UE, UK, Kanada, Singapur) |
| Dostęp rządowy | Pełny prawny dostęp do danych i technologii | Zależny od lokalnej jurysdykcji |
| Przymus | Przymus przez Defense Production Act możliwy | Brak porównywalnego instrumentu w większości jurysdykcji |
| Ryzyko ekonomiczne | Ekonomiczna izolacja w przypadku braku współpracy | Potencjalna utrata dostępu do rynku USA |
Ostrzeżenie wykracza poza firmy AI. Dotyczy każdej technologii, którą państwo może zaklasyfikować jako istotną dla obronności: obliczeń kwantowych, biotechnologii, kryptografii, półprzewodników, przestrzeni kosmicznej, cyberbezpieczeństwa, robotyki.
Kontrargument
Dolina Krzemowa nadal oferuje najwyższą na świecie koncentrację venture capital, talentów i infrastruktury. Żadna inna lokalizacja się nie zbliża. Masowy exodus firm technologicznych jest mało prawdopodobny w perspektywie krótkoterminowej.
Co prawdopodobnie się zmieni, to wyrafinowanie decyzji o lokalizacji. Firmy, których model biznesowy opiera się na globalnym zaufaniu — szczególnie wobec klientów europejskich, azjatyckich czy rządowych — będą musiały uwzględnić USA jako strategiczny czynnik ryzyka. Nie jako kryterium dyskwalifikujące, ale jako zmienną, która wcześniej nie istniała w tej formie.
Europejskie i azjatyckie alternatywy zyskują na znaczeniu w tym kontekście. Mistral (Francja), Aleph Alpha (Niemcy), DeepSeek (Chiny) — stają się bardziej atrakcyjne dla klientów wymagających regulacyjnej niezależności od Stanów Zjednoczonych.
Strategiczna odpowiedź dla dotkniętych firm to prawdopodobnie nie unikanie, lecz strukturyzacja: spółka holdingowa poza USA, własność intelektualna w neutralnej jurysdykcji, obecność operacyjna w USA na potrzeby rynku USA. Podobnie jak miało to miejsce z dostawcami chmury i rezydencją danych po ujawnieniach Snowdena.
Tylko że tym razem nie chodzi o dane. Chodzi o samą technologię.
Źródła
- Exclusive: Hegseth gives Anthropic until Friday to back down on AI safeguards (Axios, lut. 2026)
- What the Defense Production Act Can and Can’t Do to Anthropic (Lawfare, lut. 2026)
- CLOUD Act — Full text (US Congress, 2018)
- When Safety Becomes Negotiable: Anthropic’s Reversal (digital-independence.org, lut. 2026)
Przegląd tematyczny: AI i uczenie maszynowe