Nel febbraio 2026, il Dipartimento della Difesa degli Stati Uniti emette un ultimatum all’azienda di IA Anthropic. La richiesta: accesso illimitato ai modelli IA di Anthropic — incluse applicazioni che i termini di servizio di Anthropic vietano esplicitamente. La minaccia: una legge sulla produzione bellica del 1950.

Sette mesi prima, la stessa azienda aveva firmato un contratto da 200 milioni di dollari con lo stesso Dipartimento della Difesa. Anthropic ha fatto dello sviluppo responsabile dell’IA un principio fondante — ed era, allo stesso tempo, la prima azienda IA autorizzata per l’impiego su reti militari classificate.

Il conflitto mette a nudo meccanismi che vanno ben oltre una singola azienda.

Di cosa non si tratta

La questione dell’accesso ai dati non è in discussione in questo conflitto. Dal 2018, il Dipartimento di Giustizia degli Stati Uniti ha il CLOUD Act (Clarifying Lawful Overseas Use of Data Act), che obbliga le aziende statunitensi a consegnare qualsiasi dato da loro archiviato — indipendentemente da dove nel mondo quel dato sia fisicamente custodito. Questo si applica a Microsoft, Google, Amazon, Meta, OpenAI, Anthropic e ogni altra azienda tecnologica statunitense.

Che Anthropic conceda o meno al Pentagono l’accesso alla sua tecnologia IA: il governo degli Stati Uniti ha avuto, ha e continuerà ad avere accesso ai dati degli utenti finché il fornitore è un’azienda statunitense.

In gioco c’è qualcosa di completamente diverso: l’accesso illimitato alla tecnologia stessa — per utilizzare i modelli IA per la sorveglianza di massa e i sistemi d’arma autonomi.

Un impegno sulla sicurezza e un contratto militare

Anthropic si è posizionata come un’azienda che pone lo sviluppo responsabile dell’IA al centro della sua missione. La sua Acceptable Use Policy vieta esplicitamente la sorveglianza di massa delle popolazioni e il dispiegamento di sistemi d’arma autonomi senza supervisione umana.

Allo stesso tempo, l’azienda ha accettato un contratto prototipo da 200 milioni di dollari con il Dipartimento della Difesa nel luglio 2025, ha sviluppato modelli Claude Gov dedicati per i clienti governativi e — tramite partner come Palantir — operava già su reti militari classificate. Al momento dello scoppio del conflitto, Anthropic era l’unica azienda IA autorizzata per l’uso su sistemi classificati.

  • Qualsiasi azienda che stipula un contratto con il Dipartimento della Difesa si colloca nella sua sfera d’influenza legale e operativa.
  • Qualsiasi azienda che opera su reti classificate diventa infrastruttura critica — e un potenziale obiettivo di coercizione normativa.
  • Qualsiasi azienda che accetta 200 milioni di dollari dal DoD crea una dipendenza economica utilizzabile come leva.

Anthropic sembra aver scommesso che i propri termini di servizio sarebbero stati rispettati come limitazione contrattuale. Il DoD la vede diversamente. Considera i pagamenti e le implementazioni esistenti come motivi per trattare Anthropic come parte della catena di approvvigionamento militare e per annullare tutte le restrizioni — attraverso pressione contrattuale, attraverso una designazione di rischio per la catena di approvvigionamento, o attraverso l’applicazione del Defense Production Act.

Tre livelli di escalation

Rescissione del contratto. La misura più ovvia: cancellazione del contratto da 200 milioni di dollari. Finanziariamente gestibile per Anthropic, che trae la maggior parte dei ricavi dal mercato commerciale.

Designazione supply-chain. Anthropic viene dichiarata un rischio per la catena di approvvigionamento. La conseguenza: ogni azienda che fa affari con il militare USA dovrebbe rimuovere Anthropic dai propri sistemi. Dato che Anthropic è collegata ad AWS (Amazon), Palantir e numerosi partner governativi, il danno economico sarebbe sostanziale.

Defense Production Act. Una legge sulla produzione bellica del 1950 viene invocata per obbligare un’azienda IA a cedere la propria tecnologia. Il Pentagono fissa la scadenza a venerdì, ore 17:01.

Il secondo livello è il più rilevante. Le designazioni di rischio per la catena di approvvigionamento sono state finora riservate ad avversari stranieri: Huawei (Cina), Kaspersky (Russia). Applicare lo strumento a un’azienda statunitense nazionale creerebbe un precedente.

Oltre una singola azienda

Il caso Anthropic dimostra un meccanismo rilevante per ogni azienda tecnologica con sede negli Stati Uniti.

Con un contratto governativo, un’azienda può essere classificata come catena di approvvigionamento critica, obbligata dal Defense Production Act a cedere la propria tecnologia, e isolata economicamente attraverso una designazione supply-chain. Questo non si limita all’IA. Si applica potenzialmente a qualsiasi tecnologia che il Pentagono ritenga rilevante per la difesa: infrastruttura cloud, informatica quantistica, biotecnologia, semiconduttori, crittografia.

Senza un contratto governativo, il rischio persiste. Il Defense Production Act consente al governo di obbligare le aziende a fornire beni che classifica come rilevanti per la difesa — anche in assenza di qualsiasi relazione commerciale esistente. Biden ha usato il DPA nel 2023 per richiedere alle aziende IA di condurre test di sicurezza e condividere informazioni. L’applicazione attuale sarebbe un’escalation significativa, ma il quadro legale esiste.

In entrambi gli scenari, l’azienda perde il controllo su come viene utilizzata la sua tecnologia. Rimane privata di nome — ma la decisione su come quella tecnologia viene impiegata spetta allo Stato.

Conseguenze per la sede legale

Per le aziende tecnologiche che operano a livello globale e il cui modello di business dipende dalla fiducia, gli Stati Uniti stanno diventando un rischio di responsabilità crescente.

I clienti europei devono giustificare, ai sensi del GDPR, perché si fidano di un fornitore la cui tecnologia può essere requisita dal militare statunitense in qualsiasi momento. Le aziende in settori regolamentati — sanità, finanza, infrastrutture critiche — devono affrontare la questione se un fornitore IA statunitense possa ancora essere considerato conforme in queste circostanze. I governi stranieri che utilizzano tecnologia IA statunitense devono ora presumere che la stessa tecnologia sia utilizzata in parallelo dal militare USA.

Il messaggio al mercato è difficile da confutare: i termini di servizio di un’azienda statunitense sono validi solo finché il governo degli Stati Uniti sceglie di non annullarli.

Allo stesso tempo, il caso invia un segnale all’industria stessa. Anthropic era una delle poche aziende che trattavano la sicurezza dell’IA non solo come marketing ma come vincolo operativo. OpenAI, Google e xAI hanno già accettato di rendere disponibile la loro IA per tutti gli “scopi legittimi”. Anthropic era l’ultimo grande fornitore USA a fissare limiti sull’uso militare. Se anche Anthropic cede — o viene obbligata dalla legge a farlo — cade quell’ultimo confine. Per la corsa agli standard di sicurezza dell’IA, questo significa meno incentivi ad adottare restrizioni che possono essere annullate comunque.

Reazioni a catena geopolitiche

Il caso ha implicazioni che si estendono oltre il settore tecnologico statunitense.

Precedente. Se gli Stati Uniti usano il Defense Production Act per forzare un’azienda IA alla cooperazione militare, altri Stati prenderanno nota — e potrebbero citarlo come giustificazione per le proprie misure. Cina, Russia, ma anche India o Turchia potrebbero applicare meccanismi identici alle proprie aziende tecnologiche nazionali. L’argomento si scrive da solo: anche gli Stati Uniti lo fanno.

Frammentazione del mercato. La conseguenza logica è una partizione del mercato IA globale lungo linee geopolitiche: IA statunitense per la sfera d’influenza americana, IA cinese (DeepSeek, Baidu) per quella cinese, IA europea per i mercati regolatoriamente sovrani. Ogni regione con i propri standard, i propri controlli. È l’opposto di un mercato tecnologico aperto — e aumenta i costi per tutti.

Strumentalizzazione della designazione supply-chain. La minaccia di dichiarare un’azienda nazionale un rischio per la catena di approvvigionamento perché rifiuta di abbandonare i propri standard etici rende lo strumento utilizzabile arbitrariamente — contro qualsiasi azienda che resiste alle richieste governative.

Rischio per gli investitori. Anthropic sta pianificando una IPO più avanti nell’anno, secondo NPR. Il conflitto crea una nuova categoria di rischio: rischio di coercizione normativa — non regolamentazione in senso convenzionale, ma la possibilità che un modello di business venga riscritto da una legge bellica.

Rischio di sede USA: una valutazione strategica

Da un punto di vista strategico, il caso Anthropic introduce un nuovo calcolo per qualsiasi azienda che sviluppa tecnologia proprietaria di valore strategico.

Gli strumenti a disposizione del governo degli Stati Uniti non sono limitati al tempo di guerra o alle emergenze:

  • CLOUD Act — accesso ai dati
  • Defense Production Act — accesso alla tecnologia
  • Designazione rischio supply-chain — isolamento economico in caso di rifiuto

Tutti e tre vengono impiegati o minacciati qui nel contesto di una disputa contrattuale.

Confronto del rischio per giurisdizione

Sede negli USASede fuori dagli USA
Capitale e ecosistemaLa più alta concentrazione globale di venture capital, talento e infrastrutturaAccesso al capitale inferiore, ma alternative in crescita (UE, UK, Canada, Singapore)
Accesso governativoPieno accesso legale a dati e tecnologiaDipendente dalla giurisdizione locale
CoercizioneCoercizione tramite Defense Production Act possibileNessuno strumento comparabile nella maggior parte delle giurisdizioni
Rischio economicoIsolamento economico in caso di non cooperazionePotenziale perdita dell’accesso al mercato USA

L’avvertimento si estende oltre le aziende IA. Si applica a qualsiasi tecnologia che lo Stato potrebbe classificare come rilevante per la difesa: informatica quantistica, biotecnologia, crittografia, semiconduttori, spazio, cybersicurezza, robotica.

La controargomentazione

La Silicon Valley offre ancora la più alta concentrazione mondiale di venture capital, talento e infrastruttura. Nessun’altra sede si avvicina. Un esodo di massa delle aziende tecnologiche è improbabile nel breve termine.

Ciò che probabilmente cambierà è la sofisticazione della decisione sulla sede. Le aziende il cui modello di business dipende dalla fiducia globale — in particolare nei confronti di clienti europei, asiatici o governativi — dovranno valutare gli USA come fattore di rischio strategico. Non come criterio squalificante, ma come una variabile che non esisteva precedentemente in questa forma.

Le alternative europee e asiatiche stanno guadagnando rilevanza in questo contesto. Mistral (Francia), Aleph Alpha (Germania), DeepSeek (Cina) — diventano più attrattive per i clienti che richiedono indipendenza normativa dagli Stati Uniti.

La risposta strategica per le aziende interessate probabilmente non sarà l’evitamento ma la strutturazione: una holding fuori dagli USA, proprietà intellettuale in una giurisdizione neutrale, presenza operativa negli USA per il mercato statunitense. Come è accaduto con i fornitori cloud e la residenza dei dati dopo le rivelazioni di Snowden.

Solo che questa volta non si tratta di dati. Si tratta della tecnologia stessa.

Fonti


Panoramica tematica: IA e Machine Learning