Quando la sicurezza diventa negoziabile:
cosa significa il dietrofront di Anthropic
Nel settembre 2023, Anthropic ha pubblicato un documento che è stato salutato come una pietra miliare nel settore dell’IA: la Responsible Scaling Policy (RSP). La sua promessa fondamentale era insolitamente chiara: se un modello IA avesse superato determinate soglie di capacità, lo sviluppo sarebbe stato sospeso — fino a quando la sicurezza non fosse stata dimostrabilmente garantita. OpenAI e Google DeepMind hanno adottato framework simili poco dopo.
Il 24 febbraio 2026, Anthropic ha ritirato quella promessa. La nuova RSP 3.0 sostituisce le pause di sviluppo vincolanti con “obiettivi dichiarati pubblicamente ma non vincolanti”. L’azienda un tempo vista come la coscienza del settore ha spostato la propria linea rossa.
Questo cambiamento coincide con la settimana in cui il Dipartimento della Difesa degli Stati Uniti ha dato un ultimatum ad Anthropic: consegnare il suo modello Claude al Pentagono senza restrizioni di sicurezza, oppure affrontare il Defense Production Act e la designazione come “rischio per la catena di approvvigionamento”.
La domanda che questo solleva non è se Anthropic sia un’azienda responsabile. La domanda è cosa questo significhi per chiunque faccia affidamento su questa tecnologia — come individuo, come impresa, come economia europea.
Cosa è cambiato — in parole semplici
Il precedente modello di sicurezza di Anthropic funzionava come un sistema a semaforo. I cosiddetti AI Safety Levels (ASL) classificavano le capacità di un modello — più alto il livello, più rigide le misure di sicurezza. Il punto critico era: prima che un modello potesse avanzare al livello successivo, le protezioni corrispondenti dovevano essere dimostrate funzionanti. Se non lo erano, lo sviluppo si fermava. Un segnale di stop netto.
La nuova RSP 3.0 sostituisce questo segnale di stop con quelli che Anthropic stessa descrive come “obiettivi dichiarati pubblicamente ma non vincolanti”. Al posto di impegni if-then rigidi, c’è ora una Frontier Safety Roadmap — un piano con tappe ambiziose ma non vincolanti.
Anthropic è notevolmente trasparente sulle sue ragioni. Nell’annuncio ufficiale, l’azienda cita tre fattori:
- Una “zona di ambiguità”: la scienza della valutazione dei modelli non è sufficientemente matura per determinare definitivamente se un modello ha superato una soglia di capacità.
- Un “clima politico anti-regolatorio”: il governo USA si sta orientando verso la prioritizzazione della competitività e della crescita economica, mentre le discussioni sulla sicurezza “non hanno ancora guadagnato trazione significativa a livello federale”.
- Requisiti impossibili da soddisfare unilateralmente: i livelli di sicurezza più alti (ASL-4 e ASL-5) potrebbero essere “del tutto impossibili da implementare senza azione collettiva” — e quell’azione collettiva viene politicamente bloccata.
Il messaggio fondamentale, nelle parole di Anthropic: hanno preferito adeguare la RSP prima di raggiungere livelli di sicurezza che non possono soddisfare — piuttosto che definire standard che sarebbero “facili da raggiungere” ma avrebbero minato lo scopo della policy.
Perché: pressione governativa incontra logica di mercato
L’indebolimento non avviene nel vuoto. È il risultato di pressioni da due direzioni simultaneamente.
Dall’alto: il Pentagono. Il Segretario alla Difesa USA Pete Hegseth ha dato al CEO di Anthropic Dario Amodei una scadenza di venerdì il 24 febbraio per rimuovere le restrizioni di sicurezza di Claude per uso militare. La minaccia: o cooperare, o il governo forza la cooperazione attraverso il Defense Production Act. Axios riporta che Hegseth ha detto che non avrebbe permesso a nessuna azienda di dettare i termini sotto i quali il Pentagono prende decisioni operative.
Se il governo possa effettivamente obbligare Anthropic a fornire un prodotto senza garanzie di sicurezza è legalmente contestato. Alan Rozenshtein, professore all’Università del Minnesota e redattore di Lawfare, analizza il panorama giuridico in dettaglio. James Baker, ex presidente della Corte d’Appello USA per le Forze Armate, lo mette così: “A volte la disponibilità di un’autorità potenziale è una leva sufficiente per raggiungere un risultato attraverso la consultazione senza invocare la legge.”
Di lato: la concorrenza. Mentre Anthropic mantiene la sua posizione sulla sicurezza, altre aziende IA hanno già ceduto. OpenAI e Google forniscono i loro modelli al Pentagono per “tutti gli scopi legittimi”. La xAI di Elon Musk ha firmato un contratto per l’uso in ambienti classificati. Anthropic si trova sempre più isolata — con il modello tecnicamente più forte per applicazioni militari, ma le restrizioni più severe.
Il risultato è un classico dilemma del prigioniero: chi abbandona la sicurezza per primo vince il contratto; chi resiste più a lungo perde il mercato. Per un’analisi più approfondita del confronto Pentagono-Anthropic, si veda il nostro articolo precedente.
Due mondi: chi stringe, chi allenta
Ciò che rende il dietrofront di Anthropic particolarmente significativo è il contrasto con il resto del mondo. Mentre gli USA indeboliscono i loro standard di sicurezza IA, praticamente ogni altra grande regione economica si muove nella direzione opposta.
Unione Europea: L’EU AI Act è in vigore dall’agosto 2024 — la prima legge vincolante al mondo sull’IA. Dal febbraio 2025, si applicano otto pratiche IA esplicitamente vietate, inclusi il social scoring e la sorveglianza biometrica di massa.
Regno Unito: L’AI Safety Institute (AISI) impiega oltre 100 tecnici, riceve accesso pre-rilascio ai principali modelli IA per test di sicurezza e ha un budget annuale di 66 milioni di sterline.
California: Anche all’interno degli USA, esistono contro-movimenti. SB 53, firmata dal Governatore Newsom nel settembre 2025, richiede ai fornitori di modelli di frontiera di pubblicare framework di sicurezza e segnalare incidenti critici entro 15 giorni.
Gli USA a livello federale: la direzione opposta. L’Executive Order 14110 del Presidente Biden — 36 pagine di requisiti obbligatori di reporting sulla sicurezza, test e trasparenza — è stato revocato il primo giorno di mandato della nuova amministrazione. Il sostituto: Executive Order 14179 — due pagine, zero requisiti di sicurezza, un unico obiettivo dichiarato: “sostenere e migliorare il dominio globale dell’America nell’IA.”
Cosa significa per imprese e utenti
Per le imprese e gli individui europei, questo sviluppo è più di un confronto normativo transatlantico. Ciò che emerge è un profilo di rischio fondamentalmente nuovo — e un dilemma senza facile risoluzione.
Il rischio del prodotto. Quando un fornitore IA allenta i propri impegni di sicurezza sotto pressione governativa, l’impatto si estende oltre le applicazioni militari. Anthropic non sviluppa due modelli separati — uno per il Pentagono e uno per il resto del mondo. L’architettura, le priorità interne, l’allocazione delle risorse tra ricerca sulla sicurezza e sviluppo di funzionalità: tutto si sposta.
Il rischio di conformità. L’EU AI Act non rende automaticamente più sicuro l’uso dei sistemi IA in Europa — ma rende responsabili gli utenti. Le aziende che impiegano sistemi IA ad alto rischio devono documentare e valutare i loro rischi — anche quando il fornitore ha sede negli USA e ha appena abbassato i suoi standard.
Il rischio di sovranità. Il confronto tra il Pentagono e Anthropic rivela un pattern che si estende oltre l’IA: le aziende USA operano in un quadro giuridico in cui il governo può cambiare le regole in qualsiasi momento — non attraverso una legislazione trasparente, ma attraverso minacce esecutive.
Cosa significa per voi in concreto
Per gli individui: I sistemi IA che usate ogni giorno — dai chatbot ai servizi di traduzione alla ricerca potenziata dall’IA — sono costruiti da aziende le cui promesse sulla sicurezza sono sotto pressione politica. Ciò che era garantito ieri è negoziabile oggi. Questo non significa che questi strumenti saranno insicuri domani. Significa che i meccanismi che avrebbero dovuto garantirne la sicurezza si sono indeboliti — e che nessuna autorità indipendente può intervenire.
Per le imprese: Ogni organizzazione europea che utilizza prodotti IA statunitensi dovrebbe rivalutare il proprio profilo di dipendenza. Non per principio, ma come sobria gestione del rischio. Il nostro audit del rischio digitale fornisce un punto d’ingresso strutturato per questa valutazione.
Per il dibattito: L’indebolimento della RSP di Anthropic non è un caso isolato. È un sintomo di uno sviluppo in cui sicurezza IA commerciale e interessi di potere statale si scontrano. Gli impegni volontari vengono rivisti quando conta. Questa non è un fallimento morale — è una realtà strutturale. Ed è l’argomento più forte per cui una regolamentazione vincolante — con tutti i suoi svantaggi — sia l’unico meccanismo che può resistere a questa pressione.
Una cosa che il caso Anthropic mostra con dolorosa chiarezza: in un mondo dove l’IA diventa un’arma strategica, non esiste una posizione priva di rischio. Né dentro la regolamentazione né fuori.
Fonti
- Responsible Scaling Policy: Version 3.0 (Anthropic, feb. 2026)
- Exclusive: Hegseth gives Anthropic until Friday to back down on AI safeguards (Axios, feb. 2026)
- What the Defense Production Act Can and Can’t Do to Anthropic (Lawfare, feb. 2026)
- Regulation (EU) 2024/1689 — Artificial Intelligence Act (EUR-Lex)
- EU AI Pact (European Commission)
- The Bletchley Declaration (GOV.UK, nov. 2023)
- Introducing the AI Safety Institute (GOV.UK)
- SB 53 — Transparency in Frontier AI Act (California Legislature, set. 2025)
- Interim Measures for Generative AI (China Law Translate, 2023)
- Executive Order 14110: Safe, Secure, and Trustworthy AI (Federal Register, ott. 2023)
- Executive Order 14179: Removing Barriers to American Leadership in AI (Federal Register, gen. 2025)
- Pentagon vs. Anthropic: un’analisi strategica (digital-independence.org, feb. 2026)
Panoramica tematica: Tutti gli articoli su digital-independence.org →