We wrześniu 2023 r. Anthropic opublikował dokument, który został okrzyknięty kamieniem milowym w branży AI: Responsible Scaling Policy (RSP). Jej główna obietnica była niezwykle jasna: jeśli model AI przekroczy określone progi zdolności, rozwój zostanie wstrzymany — do czasu wyraźnego zagwarantowania bezpieczeństwa. OpenAI i Google DeepMind wkrótce potem przyjęły podobne ramy.

24 lutego 2026 r. Anthropic wycofał tę obietnicę. Nowa RSP 3.0 zastępuje wiążące wstrzymania rozwoju „niewiążącymi, ale publicznie deklarowanymi celami". Firma niegdyś postrzegana jako sumienie branży przesunęła swoją czerwoną linię.

Ta zmiana zbiega się z tygodniem, w którym Departament Obrony USA postawił Anthropic ultimatum: albo dostarcz swój model Claude Pentagonowi bez ograniczeń bezpieczeństwa, albo staw czoła Defense Production Act i oznaczeniu jako „ryzyko łańcucha dostaw".

Pytanie, które się rodzi, nie dotyczy tego, czy Anthropic jest odpowiedzialną firmą. Pytanie brzmi: co to oznacza dla każdego, kto polega na tej technologii — jako osoba prywatna, jako firma, jako europejska gospodarka.

Co się zmieniło — prostym językiem

Poprzedni model bezpieczeństwa Anthropic działał jak system sygnalizacji świetlnej. Tak zwane AI Safety Levels (ASL) klasyfikowały zdolności modelu — im wyższy poziom, tym surowsze zabezpieczenia. Kluczowy punkt: zanim model mógł przejść na wyższy poziom, odpowiednie zabezpieczenia musiały być udowodnione jako działające. Jeśli nie działały, rozwój się zatrzymywał. Twardy sygnał stop.

Nowa RSP 3.0 zastępuje ten sygnał stop tym, co samo Anthropic opisuje jako „niewiążące, ale publicznie deklarowane cele". Zamiast twardych zobowiązań „jeśli-to" pojawia się Frontier Safety Roadmap — plan z ambitnymi, ale niewiążącymi kamieniami milowymi.

Anthropic jest niezwykle przejrzyste co do swoich powodów. W oficjalnym ogłoszeniu firma wymienia trzy czynniki:

  1. „Strefa niejednoznaczności": nauka o ewaluacji modeli nie jest wystarczająco dojrzała, by definitywnie stwierdzić, czy model przekroczył próg zdolności.
  2. Antyregulacyjny klimat polityczny": rząd USA zmierza ku priorytetyzacji konkurencyjności i wzrostu gospodarczego, podczas gdy dyskusje o bezpieczeństwie „nie zyskały jeszcze znaczącego umocowania na szczeblu federalnym".
  3. Wymagania niemożliwe do spełnienia jednostronnie: najwyższe poziomy bezpieczeństwa (ASL-4 i ASL-5) mogą być „wręcz niemożliwe do wdrożenia bez zbiorowego działania" — a to zbiorowe działanie jest politycznie blokowane.

Główne przesłanie, własnymi słowami Anthropic: woleli dostosować RSP zanim osiągną poziomy bezpieczeństwa, których nie mogą spełnić — zamiast definiować standardy, które byłyby „łatwe do osiągnięcia", ale podważałyby cel polityki.

Dlaczego: presja rządowa spotyka logikę rynku

Osłabienie nie zachodzi w próżni. Jest wynikiem presji z dwóch kierunków jednocześnie.

Z góry: Pentagon. Amerykański sekretarz obrony Pete Hegseth dał prezesowi Anthropic Dario Amodeiowi termin do piątku 24 lutego na zniesienie ograniczeń bezpieczeństwa Claude dla zastosowań wojskowych. Groźba: albo współpracuj, albo rząd wymusi współpracę poprzez Defense Production Act.

Czy rząd faktycznie może zmusić Anthropic do dostarczenia produktu bez gwarancji bezpieczeństwa, jest prawnie kwestionowane.

Z boku: konkurencja. Podczas gdy Anthropic trzyma linię bezpieczeństwa, inne firmy AI już ustąpiły. OpenAI i Google udostępniają swoje modele Pentagonowi do „wszystkich zgodnych z prawem celów". xAI Elona Muska podpisał kontrakt na użycie w środowiskach utajnionych. Anthropic stoi coraz bardziej samotnie — z technicznie najsilniejszym modelem do zastosowań wojskowych, ale najsurowszymi ograniczeniami.

Wynik to klasyczny dylemat więźnia: kto pierwszy porzuca bezpieczeństwo, wygrywa kontrakt; kto najdłużej trzyma pozycję, traci rynek. Dla pogłębionej analizy konfrontacji Pentagon-Anthropic zapoznaj się z naszym poprzednim artykułem.

Dwa światy: kto zaostrza, kto łagodzi

Zwrot Anthropic jest szczególnie uderzający w kontekście reszty świata. Podczas gdy USA osłabiają swoje standardy bezpieczeństwa AI, praktycznie każdy inny duży region ekonomiczny podąża w przeciwnym kierunku.

Unia Europejska: AI Act UE obowiązuje od sierpnia 2024 r. — pierwsza na świecie wiążąca ustawa o AI. Od lutego 2025 r. obowiązuje osiem wyraźnie zabronionych praktyk AI, w tym social scoring i masowa inwigilacja biometryczna.

Wielka Brytania: AI Safety Institute (AISI) zatrudnia ponad 100 pracowników technicznych, otrzymuje dostęp do wiodących modeli AI przed wdrożeniem w celu testów bezpieczeństwa i dysponuje rocznym budżetem 66 mln GBP.

Kalifornia: Nawet wewnątrz USA istnieją przeciwruchy. SB 53, podpisany we wrześniu 2025 r., wymaga od dostawców modeli frontierowych publikowania ram bezpieczeństwa i zgłaszania krytycznych incydentów w ciągu 15 dni.

USA na szczeblu federalnym: Kierunek przeciwny. Executive Order 14110 prezydenta Bidena — 36 stron obowiązkowych wymogów bezpieczeństwa — został cofnięty pierwszego dnia urzędowania nowej administracji. Jego zastępstwo: <span class=“tt” data-tt="• Dyrektywa prezydencka USA wydana 20 stycznia 2025 r. • Tylko 2 strony, zero wymogów bezpieczeństwa • Deklarowany cel: „utrzymanie i wzmocnienie globalnej dominacji AI Ameryki"" data-gl=“executive-order”>Executive Order 14179 — dwie strony, zero wymogów bezpieczeństwa, jeden deklarowany cel: „utrzymanie i wzmocnienie globalnej dominacji AI Ameryki".

Co to oznacza dla firm i użytkowników

Dla europejskich firm i osób prywatnych ten rozwój to więcej niż porównanie regulacji transatlantyckich. Wyłania się fundamentalnie nowy profil ryzyka — i dylemat bez łatwego rozwiązania.

Ryzyko produktowe. Gdy dostawca AI łagodzi swoje zobowiązania bezpieczeństwa pod presją rządową, wpływ wykracza poza zastosowania wojskowe. Anthropic nie rozwija dwóch oddzielnych modeli — jednego dla Pentagonu i jednego dla reszty świata. Architektura, wewnętrzne priorytety, alokacja zasobów między badania nad bezpieczeństwem a rozwój funkcji: wszystko to się przesuwa.

Ryzyko zgodności. AI Act UE nie czyni automatycznie bezpieczniejszym stosowania systemów AI w Europie — ale czyni użytkowników odpowiedzialnymi. Firmy wdrażające systemy AI wysokiego ryzyka muszą dokumentować i oceniać ich ryzyko — nawet gdy dostawca siedzi w USA i właśnie obniżył swoje standardy.

Ryzyko suwerenności. Konfrontacja między Pentagonem a Anthropic ujawnia wzorzec wykraczający poza AI: amerykańskie firmy działają w ramach prawnych, w których rząd może zmienić zasady w dowolnym momencie — nie poprzez przejrzyste prawodawstwo, ale przez groźby wykonawcze.

Co to oznacza dla ciebie konkretnie

Dla osób prywatnych: Systemy AI, z których codziennie korzystasz — od chatbotów po usługi tłumaczeniowe po wyszukiwanie oparte na AI — są budowane przez firmy, których obietnice bezpieczeństwa są pod presją polityczną. Co było gwarantowane wczoraj, jest dziś negocjowalne.

Dla firm: Każda europejska organizacja korzystająca z amerykańskich produktów AI powinna ponownie ocenić swój profil zależności. Nie z zasady, ale jako trzeźwe zarządzanie ryzykiem. Nasz audyt ryzyka cyfrowego zapewnia ustrukturyzowany punkt wyjścia dla tej oceny.

Dla debaty: Osłabienie RSP przez Anthropic nie jest odosobnionym przypadkiem. Jest symptomem rozwoju, w którym komercyjne bezpieczeństwo AI i interesy władzy państwowej kolidują. Dobrowolne zobowiązania są rewidowane, gdy to ma znaczenie. To nie jest porażka moralna — to strukturalna rzeczywistość. I najsilniejszy argument za tym, że wiążąca regulacja — mimo wszystkich jej wad — jest jedynym mechanizmem zdolnym wytrzymać tę presję.

Jedno sprawa Anthropic pokazuje z bolesną jasnością: w świecie, gdzie AI staje się bronią strategiczną, nie ma pozycji wolnej od ryzyka. Ani wewnątrz regulacji, ani poza nią.

Źródła


Przegląd tematyczny: Wszystkie artykuły na digital-independence.org →