Per anni, Anthropic è stata considerata la coscienza del settore. Fondata da ex dirigenti di OpenAI preoccupati per la corsa sfrenata verso l'intelligenza artificiale generale, la startup ha costruito il proprio marchio sul concetto di "IA Costituzionale". Non si trattava solo di una metodologia tecnica; era una proposta di vendita morale. Tuttavia, a partire dalla fine di febbraio 2026, la posizione dell'azienda ha subito una svolta epocale.
In una dichiarazione rilasciata questo martedì, Anthropic ha confermato di voler abbandonare il suo impegno distintivo di sospendere lo scaling dei modelli o ritardare la distribuzione quando i protocolli di sicurezza non tengono il passo con il progresso tecnico. Questa mossa segna la fine di un'era in cui la sicurezza rappresentava un vincolo rigido alla crescita, sostituendola con un approccio allo sviluppo più fluido e, comprensibilmente, più rischioso.
Al centro di questo perno c'è l'evoluzione della Politica di Scaling Responsabile (RSP). Quando Anthropic ha introdotto per la prima volta la RSP, è stata accolta come un quadro di riferimento storico. Categorizzava le capacità dell'IA in "Livelli di Sicurezza dell'IA" (ASL). Se un modello raggiungeva una certa soglia di capacità — ad esempio, la capacità di assistere in un attacco informatico — la politica imponeva l'arresto dello scaling fino al raggiungimento di specifici "checkpoint" di sicurezza.
Rimuovendo l'impegno alla pausa, Anthropic sta essenzialmente togliendo il freno d'emergenza. L'azienda sostiene che lo scenario è cambiato. Con l'intensificarsi della competizione globale e la persistente mancanza di una regolamentazione federale negli Stati Uniti, Anthropic suggerisce che la restrizione unilaterale non è più una strategia praticabile. Se loro si fermano, i concorrenti — che potrebbero avere meno scrupoli — passeranno semplicemente in vantaggio.
Questa decisione non avviene nel vuoto. Per tutto il 2025 e fino all'inizio del 2026, il settore dell'IA è stato definito da una spinta incessante verso la "supremazia del calcolo". Il modello di punta di Anthropic, Claude, è diventato una forza dominante in ambienti ad alta posta in gioco, in particolare nella modellazione finanziaria e nell'ingegneria del software automatizzata.
Tuttavia, questo successo ha portato con sé una serie di pressioni. Quando Claude ha iniziato a "sconvolgere i mercati finanziari" con la sua precisione predittiva, la richiesta di modelli ancora più potenti è diventata assordante. Gli investitori e i partner aziendali non si accontentano più della narrazione "sicura ma più lenta". Vogliono lo strumento più capace disponibile, e lo vogliono subito. La svolta di Anthropic è una concessione alla realtà che, in un mercato iper-competitivo, la sicurezza è spesso vista come un lusso che può essere rimandato.
Per comprendere la gravità di questo cambiamento, è utile osservare come si è spostata la logica interna di Anthropic. La tabella seguente illustra il passaggio da una posizione "Safety-First" (sicurezza al primo posto) a una "Deployment-First" (distribuzione al primo posto).
| Caratteristica | Promessa di sicurezza originale | Nuova politica 2026 |
|---|---|---|
| Strategia di distribuzione | Ritardata fino alla verifica dei benchmark di sicurezza. | Concomitante con i test di sicurezza e il perfezionamento. |
| Vincolo di scaling | Pausa forzata se le misure di sicurezza sono in ritardo. | Nessuna pausa obbligatoria; focus sulla "mitigazione durante l'uso". |
| Posizione normativa | Autoregolamentazione proattiva come modello per la legge. | Posizione reattiva citando la mancanza di parità globale. |
| Obiettivo primario | Minimizzare il rischio catastrofico sopra ogni cosa. | Bilanciare la sicurezza con il posizionamento competitivo sul mercato. |
Il tempismo di questo cambio di politica è particolarmente delicato. L'industria è attualmente alle prese con la "morte del software" — un fenomeno in cui i modelli di IA sono diventati così esperti nel coding che i cicli di vita tradizionali dello sviluppo software stanno collassando. Quando un modello può generare, testare e distribuire applicazioni complesse in pochi secondi, la finestra per la supervisione umana svanisce.
Rimuovendo l'obbligo di ritardare la distribuzione, Anthropic sta essenzialmente scommettendo di poter "patchare" i problemi di sicurezza al volo. I critici sostengono che si tratti di una scommessa pericolosa. Se un modello con capacità impreviste viene rilasciato nel mondo reale, il danno — che si tratti di un flash crash del mercato o di una vulnerabilità di sicurezza sistemica — potrebbe essere fatto prima ancora che il team di sicurezza identifichi il problema.
Per le aziende e gli sviluppatori che si affidano all'ecosistema di Anthropic, questo cambio di politica richiede un cambiamento nel modo in cui si gestisce il rischio. Non si può più presumere che la "sicurezza" sia integrata dal fornitore allo stesso livello di prima.
Il ritiro di Anthropic dalla sua promessa distintiva segna un momento di riflessione per la comunità dell'IA. Suggerisce che la visione idealistica di un'IA "sicura per progettazione" stia faticando a sopravvivere al calore della fucina commerciale. Sebbene Anthropic sostenga di essere ancora impegnata sul fronte della sicurezza, la definizione di tale impegno si è chiaramente ristretta.
Mentre ci addentriamo nel 2026, l'onere della sicurezza dell'IA si sta spostando dai creatori ai consumatori. La corsa non riguarda più solo chi può costruire la macchina più intelligente, ma chi può mantenerne il controllo mentre queste macchine vengono liberate più velocemente che mai.
Fonti:



La nostra soluzione di archiviazione e-mail crittografata end-to-end fornisce i mezzi più potenti per lo scambio sicuro dei dati, garantendo la sicurezza e la privacy dei tuoi dati.
/ Creare un account gratuito