Pentágono vs. Anthropic
Em fevereiro de 2026, o Departamento de Defesa dos EUA emite um ultimato à empresa de IA Anthropic. A exigência: acesso irrestrito aos modelos de IA da Anthropic — incluindo aplicações que os próprios termos de serviço da Anthropic proíbem explicitamente. A ameaça: uma lei de produção de guerra de 1950.
Sete meses antes, a mesma empresa tinha assinado um contrato de $200 milhões com o mesmo Departamento de Defesa. A Anthropic fez do desenvolvimento responsável de IA um princípio fundador — e foi, ao mesmo tempo, a primeira empresa de IA autorizada para implementação em redes militares classificadas.
O conflito expõe mecanismos que vão muito além de uma única empresa.
Do que isto não se trata
A questão do acesso a dados não está em causa neste conflito. Desde 2018, o Departamento de Justiça dos EUA tem o CLOUD Act (Clarifying Lawful Overseas Use of Data Act), que obriga empresas norte-americanas a entregar quaisquer dados que armazenem — independentemente de onde no mundo esses dados estejam fisicamente.
Se a Anthropic concede ou não ao Pentágono acesso à sua tecnologia de IA: o governo dos EUA tem tido, tem e continuará a ter acesso a dados de utilizadores enquanto o fornecedor for uma empresa norte-americana.
O que está em jogo é algo completamente diferente: acesso irrestrito à própria tecnologia — para usar os modelos de IA para vigilância em massa e sistemas de armas autónomos.
Uma promessa de segurança e um contrato militar
A Anthropic posicionou-se como uma empresa que coloca o desenvolvimento responsável de IA no centro da sua missão. A sua Política de Utilização Aceitável proíbe explicitamente a vigilância em massa de populações e a implementação de sistemas de armas autónomos sem supervisão humana.
Ao mesmo tempo, a empresa aceitou um contrato protótipo de $200 milhões com o Departamento de Defesa em julho de 2025, desenvolveu modelos Claude Gov dedicados para clientes governamentais e — através de parceiros como Palantir — já estava a operar em redes militares classificadas.
- Qualquer empresa que celebra um contrato com o Departamento de Defesa coloca-se dentro da sua esfera de influência jurídica e operacional.
- Qualquer empresa que opera em redes classificadas torna-se infraestrutura crítica — e um alvo potencial para compulsão regulatória.
- Qualquer empresa que aceita $200 milhões do DoD cria uma dependência económica que pode ser usada como alavanca.
A Anthropic parece ter apostado que os seus próprios termos de serviço seriam respeitados como uma limitação contratual. O DoD vê a situação de forma diferente. Considera os pagamentos e implementações existentes como fundamento para tratar a Anthropic como parte da cadeia de fornecimento militar e para anular todas as restrições — através de pressão contratual, através de uma designação de risco para a cadeia de fornecimento, ou através da aplicação do Defense Production Act.
Três níveis de escalada
Rescisão de contrato. A medida mais óbvia: cancelamento do contrato de $200 milhões. Financeiramente gerível para a Anthropic, que obtém a maior parte da sua receita do mercado comercial.
Designação de risco para a cadeia de fornecimento. A Anthropic é declarada um Risco para a Cadeia de Fornecimento. A consequência: todas as empresas que fazem negócios com o exército dos EUA teriam de remover a Anthropic dos seus sistemas.
Defense Production Act. Uma lei de produção de guerra de 1950 é invocada para obrigar uma empresa de IA a entregar a sua tecnologia. O Pentágono fixa o prazo para sexta-feira, 17:01.
O segundo nível é o mais notável. As designações de risco para a cadeia de fornecimento foram até agora reservadas para adversários estrangeiros: Huawei (China), Kaspersky (Rússia). Aplicar o instrumento a uma empresa norte-americana interna estabeleceria um precedente.
Para além de uma empresa
O caso Anthropic demonstra um mecanismo relevante para qualquer empresa tecnológica sediada nos Estados Unidos.
Com um contrato governamental, uma empresa pode ser classificada como cadeia de fornecimento crítica, obrigada sob o Defense Production Act a entregar a sua tecnologia e isolada economicamente através de uma designação de risco para a cadeia de fornecimento. Isto não se limita à IA. Aplica-se potencialmente a qualquer tecnologia que o Pentágono considere relevante para a defesa: infraestrutura cloud, computação quântica, biotecnologia, semicondutores, criptografia.
Sem um contrato governamental, o risco persiste. O Defense Production Act permite ao governo obrigar empresas a fornecer bens que classifique como relevantes para a defesa — mesmo na ausência de qualquer relação comercial existente.
Em ambos os cenários, a empresa perde o controlo sobre como a sua tecnologia é usada.
Consequências para a localização empresarial
De uma perspetiva estratégica, o caso Anthropic introduz um novo cálculo para qualquer empresa que desenvolva tecnologia proprietária de valor estratégico.
Os instrumentos disponíveis ao governo dos EUA não se limitam a tempos de guerra ou emergências:
- CLOUD Act — acesso a dados
- Defense Production Act — acesso à tecnologia
- Designação de Risco para a Cadeia de Fornecimento — isolamento económico em caso de recusa
Comparação de risco por jurisdição
| Sede nos EUA | Sede fora dos EUA | |
|---|---|---|
| Capital e ecossistema | Maior concentração mundial de capital de risco, talento e infraestrutura | Menor acesso a capital, mas alternativas crescentes (UE, RU, Canadá, Singapura) |
| Acesso governamental | Acesso legal total a dados e tecnologia | Dependente da jurisdição local |
| Compulsão | Compulsão via Defense Production Act possível | Sem instrumento comparável na maioria das jurisdições |
| Risco económico | Isolamento económico se não cooperar | Potencial perda de acesso ao mercado dos EUA |
O alerta estende-se para além das empresas de IA. Aplica-se a qualquer tecnologia que o Estado possa classificar como relevante para a defesa: computação quântica, biotecnologia, criptografia, semicondutores, espaço, cibersegurança, robótica.
O contra-argumento
Silicon Valley ainda oferece a maior concentração mundial de capital de risco, talento e infraestrutura. Nenhuma outra localização se aproxima. Um êxodo em massa de empresas tecnológicas é improvável a curto prazo.
O que provavelmente mudará é a sofisticação da decisão de localização. Alternativas europeias e asiáticas estão a ganhar relevância neste contexto. Mistral (França), Aleph Alpha (Alemanha), DeepSeek (China) — tornam-se mais atrativos para clientes que exigem independência regulatória dos Estados Unidos.
Fontes
- Exclusive: Hegseth gives Anthropic until Friday to back down on AI safeguards (Axios, fev. 2026)
- What the Defense Production Act Can and Can’t Do to Anthropic (Lawfare, fev. 2026)
- CLOUD Act — Full text (US Congress, 2018)
- When Safety Becomes Negotiable: Anthropic’s Reversal (digital-independence.org, fev. 2026)
Visão geral temática: IA & Machine Learning