Quando a Segurança se Torna Negociável:
O Que Significa a Reversão da Anthropic
Em setembro de 2023, Anthropic publicou um documento saudado como um marco na indústria de IA: a Responsible Scaling Policy (RSP). A sua promessa central era invulgarmente clara: se um modelo de IA excedesse certos limiares de capacidade, o desenvolvimento seria pausado — até que a segurança pudesse ser demonstravelmente garantida. A OpenAI e o Google DeepMind adotaram quadros semelhantes pouco depois.
A 24 de fevereiro de 2026, a Anthropic retirou essa promessa. A nova RSP 3.0 substitui as pausas vinculativas de desenvolvimento por «metas não vinculativas mas publicamente declaradas». A empresa outrora vista como a consciência da indústria moveu a sua linha vermelha.
Esta mudança coincide com a semana em que o Departamento de Defesa dos EUA deu à Anthropic um ultimato: ou entregar o seu modelo Claude ao Pentágono sem restrições de segurança, ou enfrentar o Defense Production Act e a designação como «risco para a cadeia de fornecimento».
A questão que isto levanta não é se a Anthropic é uma empresa responsável. A questão é o que isto significa para todos os que dependem desta tecnologia — como indivíduo, como empresa, como economia europeia.
O que mudou — em linguagem simples
O modelo de segurança anterior da Anthropic funcionava como um sistema semafórico. Os chamados AI Safety Levels (ASL) classificavam as capacidades de um modelo — quanto mais alto o nível, mais rigorosas as salvaguardas. O ponto crítico era: antes de um modelo poder avançar para o nível seguinte, as proteções correspondentes tinham de estar comprovadamente a funcionar. Se não estivessem, o desenvolvimento parava. Um sinal de paragem firme.
A nova RSP 3.0 substitui este sinal de paragem pelo que a Anthropic descreve como «metas não vinculativas mas publicamente declaradas». Em vez de compromissos firmes de se-então, há agora um Frontier Safety Roadmap — um plano com marcos ambiciosos mas não vinculativos.
A Anthropic é notavelmente transparente sobre as suas razões. No anúncio oficial, a empresa cita três fatores:
- Uma «zona de ambiguidade»: A ciência da avaliação de modelos não é suficientemente madura para determinar definitivamente se um modelo ultrapassou um limiar de capacidade.
- Um «clima político anti-regulação»: O governo dos EUA está a mover-se para priorizar a competitividade e o crescimento económico.
- Requisitos impossíveis de cumprir unilateralmente: Os mais altos níveis de segurança (ASL-4 e ASL-5) podem ser «completamente impossíveis de implementar sem ação coletiva» — e essa ação coletiva está a ser politicamente bloqueada.
Porquê: Pressão governamental encontra lógica de mercado
De cima: O Pentágono. O Secretário da Defesa dos EUA Pete Hegseth deu ao CEO da Anthropic Dario Amodei um prazo até sexta-feira.
Do lado: A concorrência. Enquanto a Anthropic mantém a sua posição sobre segurança, outras empresas de IA já cederam. A OpenAI e a Google fornecem os seus modelos ao Pentágono para «todos os fins legais». O resultado é um clássico dilema do prisioneiro: quem abandona a segurança primeiro ganha o contrato; quem aguenta mais tempo perde o mercado. Para uma análise mais aprofundada da confrontação Pentágono-Anthropic, veja o nosso artigo anterior.
Dois mundos: Quem aperta, quem afrouxa
União Europeia: O EU AI Act está em vigor desde agosto de 2024 — a primeira lei vinculativa de IA do mundo.
Reino Unido: O AI Safety Institute (AISI) emprega mais de 100 técnicos.
Os EUA a nível federal: A direção oposta. A Ordem Executiva 14110 foi revogada no primeiro dia de mandato da nova administração. A sua substituição: Ordem Executiva 14179 — duas páginas, zero requisitos de segurança.
O que isto significa para empresas e utilizadores
O risco do produto. Quando um fornecedor de IA afrouxa os seus compromissos de segurança sob pressão governamental, o impacto estende-se para além das aplicações militares. A Anthropic não desenvolve dois modelos separados — um para o Pentágono e outro para o resto do mundo.
O risco de conformidade. O EU AI Act não torna automaticamente mais segura a utilização de sistemas de IA na Europa — mas torna os utilizadores responsáveis.
O risco de soberania. A confrontação entre o Pentágono e a Anthropic revela um padrão que se estende para além da IA: empresas norte-americanas operam sob um quadro legal em que o governo pode mudar as regras a qualquer momento. O CLOUD Act diz respeito a dados. O Defense Production Act diz respeito a produtos. A lógica é a mesma.
O que isto significa para si em termos concretos
Para indivíduos: Os sistemas de IA que usa todos os dias são construídos por empresas cujas promessas de segurança estão sob pressão política. O que era garantido ontem é negociável hoje.
Para empresas: Cada organização europeia que utiliza produtos de IA dos EUA deveria reavaliar o seu perfil de dependência. A nossa auditoria de risco digital fornece um ponto de partida estruturado para esta avaliação.
Para o debate: O enfraquecimento da RSP da Anthropic não é um caso isolado. É um sintoma de um desenvolvimento em que a segurança comercial de IA e os interesses de poder estatal colidem. Compromissos voluntários são revistos quando importa. Esta é a realidade estrutural. E é o argumento mais forte de que a regulação vinculativa — com todos os seus inconvenientes — é o único mecanismo que pode resistir a esta pressão.
Uma coisa que o caso Anthropic mostra com dolorosa clareza: num mundo onde a IA se torna uma arma estratégica, não existe posição sem risco. Nem dentro da regulação nem fora dela.
Fontes
- Responsible Scaling Policy: Versão 3.0 (Anthropic, fev. 2026)
- Exclusive: Hegseth gives Anthropic until Friday to back down on AI safeguards (Axios, fev. 2026)
- What the Defense Production Act Can and Can’t Do to Anthropic (Lawfare, fev. 2026)
- Regulation (EU) 2024/1689 — Artificial Intelligence Act (EUR-Lex)
- EU AI Pact (Comissão Europeia)
- The Bletchley Declaration (GOV.UK, nov. 2023)
- SB 53 — Transparency in Frontier AI Act (California Legislature, set. 2025)
- Executive Order 14110 (Federal Register, out. 2023)
- Executive Order 14179 (Federal Register, jan. 2025)
- Pentágono vs. Anthropic: Uma análise estratégica (digital-independence.org, fev. 2026)
Visão geral temática: Todos os artigos em digital-independence.org →