Em fevereiro de 2026, o Departamento de Defesa dos EUA emite um ultimato à empresa de IA Anthropic. A exigência: acesso irrestrito aos modelos de IA da Anthropic — incluindo aplicações que os próprios termos de serviço da Anthropic proíbem explicitamente. A ameaça: uma lei de produção de guerra de 1950.

Sete meses antes, a mesma empresa tinha assinado um contrato de $200 milhões com o mesmo Departamento de Defesa. A Anthropic fez do desenvolvimento responsável de IA um princípio fundador — e foi, ao mesmo tempo, a primeira empresa de IA autorizada para implementação em redes militares classificadas.

O conflito expõe mecanismos que vão muito além de uma única empresa.

Do que isto não se trata

A questão do acesso a dados não está em causa neste conflito. Desde 2018, o Departamento de Justiça dos EUA tem o CLOUD Act (Clarifying Lawful Overseas Use of Data Act), que obriga empresas norte-americanas a entregar quaisquer dados que armazenem — independentemente de onde no mundo esses dados estejam fisicamente.

Se a Anthropic concede ou não ao Pentágono acesso à sua tecnologia de IA: o governo dos EUA tem tido, tem e continuará a ter acesso a dados de utilizadores enquanto o fornecedor for uma empresa norte-americana.

O que está em jogo é algo completamente diferente: acesso irrestrito à própria tecnologia — para usar os modelos de IA para vigilância em massa e sistemas de armas autónomos.

Uma promessa de segurança e um contrato militar

A Anthropic posicionou-se como uma empresa que coloca o desenvolvimento responsável de IA no centro da sua missão. A sua Política de Utilização Aceitável proíbe explicitamente a vigilância em massa de populações e a implementação de sistemas de armas autónomos sem supervisão humana.

Ao mesmo tempo, a empresa aceitou um contrato protótipo de $200 milhões com o Departamento de Defesa em julho de 2025, desenvolveu modelos Claude Gov dedicados para clientes governamentais e — através de parceiros como Palantir — já estava a operar em redes militares classificadas.

  • Qualquer empresa que celebra um contrato com o Departamento de Defesa coloca-se dentro da sua esfera de influência jurídica e operacional.
  • Qualquer empresa que opera em redes classificadas torna-se infraestrutura crítica — e um alvo potencial para compulsão regulatória.
  • Qualquer empresa que aceita $200 milhões do DoD cria uma dependência económica que pode ser usada como alavanca.

A Anthropic parece ter apostado que os seus próprios termos de serviço seriam respeitados como uma limitação contratual. O DoD vê a situação de forma diferente. Considera os pagamentos e implementações existentes como fundamento para tratar a Anthropic como parte da cadeia de fornecimento militar e para anular todas as restrições — através de pressão contratual, através de uma designação de risco para a cadeia de fornecimento, ou através da aplicação do Defense Production Act.

Três níveis de escalada

Rescisão de contrato. A medida mais óbvia: cancelamento do contrato de $200 milhões. Financeiramente gerível para a Anthropic, que obtém a maior parte da sua receita do mercado comercial.

Designação de risco para a cadeia de fornecimento. A Anthropic é declarada um Risco para a Cadeia de Fornecimento. A consequência: todas as empresas que fazem negócios com o exército dos EUA teriam de remover a Anthropic dos seus sistemas.

Defense Production Act. Uma lei de produção de guerra de 1950 é invocada para obrigar uma empresa de IA a entregar a sua tecnologia. O Pentágono fixa o prazo para sexta-feira, 17:01.

O segundo nível é o mais notável. As designações de risco para a cadeia de fornecimento foram até agora reservadas para adversários estrangeiros: Huawei (China), Kaspersky (Rússia). Aplicar o instrumento a uma empresa norte-americana interna estabeleceria um precedente.

Para além de uma empresa

O caso Anthropic demonstra um mecanismo relevante para qualquer empresa tecnológica sediada nos Estados Unidos.

Com um contrato governamental, uma empresa pode ser classificada como cadeia de fornecimento crítica, obrigada sob o Defense Production Act a entregar a sua tecnologia e isolada economicamente através de uma designação de risco para a cadeia de fornecimento. Isto não se limita à IA. Aplica-se potencialmente a qualquer tecnologia que o Pentágono considere relevante para a defesa: infraestrutura cloud, computação quântica, biotecnologia, semicondutores, criptografia.

Sem um contrato governamental, o risco persiste. O Defense Production Act permite ao governo obrigar empresas a fornecer bens que classifique como relevantes para a defesa — mesmo na ausência de qualquer relação comercial existente.

Em ambos os cenários, a empresa perde o controlo sobre como a sua tecnologia é usada.

Consequências para a localização empresarial

De uma perspetiva estratégica, o caso Anthropic introduz um novo cálculo para qualquer empresa que desenvolva tecnologia proprietária de valor estratégico.

Os instrumentos disponíveis ao governo dos EUA não se limitam a tempos de guerra ou emergências:

  • CLOUD Act — acesso a dados
  • Defense Production Act — acesso à tecnologia
  • Designação de Risco para a Cadeia de Fornecimento — isolamento económico em caso de recusa

Comparação de risco por jurisdição

Sede nos EUASede fora dos EUA
Capital e ecossistemaMaior concentração mundial de capital de risco, talento e infraestruturaMenor acesso a capital, mas alternativas crescentes (UE, RU, Canadá, Singapura)
Acesso governamentalAcesso legal total a dados e tecnologiaDependente da jurisdição local
CompulsãoCompulsão via Defense Production Act possívelSem instrumento comparável na maioria das jurisdições
Risco económicoIsolamento económico se não cooperarPotencial perda de acesso ao mercado dos EUA

O alerta estende-se para além das empresas de IA. Aplica-se a qualquer tecnologia que o Estado possa classificar como relevante para a defesa: computação quântica, biotecnologia, criptografia, semicondutores, espaço, cibersegurança, robótica.

O contra-argumento

Silicon Valley ainda oferece a maior concentração mundial de capital de risco, talento e infraestrutura. Nenhuma outra localização se aproxima. Um êxodo em massa de empresas tecnológicas é improvável a curto prazo.

O que provavelmente mudará é a sofisticação da decisão de localização. Alternativas europeias e asiáticas estão a ganhar relevância neste contexto. Mistral (França), Aleph Alpha (Alemanha), DeepSeek (China) — tornam-se mais atrativos para clientes que exigem independência regulatória dos Estados Unidos.

Fontes


Visão geral temática: IA & Machine Learning