Nell'ultimo anno, una migrazione silenziosa è stata in corso nel mondo dell'intelligenza artificiale. Mentre ChatGPT di OpenAI rimane il nome più noto, un gruppo significativo di utenti esperti, sviluppatori e scrittori attenti alla privacy ha fatto le valigie digitali e si è trasferito su Claude di Anthropic. La narrazione era semplice: OpenAI stava diventando troppo vicina agli interessi di sorveglianza governativa — evidenziata dalla nomina di un ex direttore della NSA nel suo consiglio di amministrazione — mentre Anthropic rimaneva l'alternativa di principio, orientata alla sicurezza.
Ma la realtà dell'industria tecnologica è raramente così binaria. Questa settimana, quella narrazione ha subito una significativa battuta d'arresto. Anthropic ha aggiornato silenziosamente i suoi protocolli per includere il requisito che alcuni utenti forniscano un documento d'identità con foto rilasciato dal governo e un selfie dal vivo per continuare a utilizzare il servizio. Per una comunità che si è unita a Claude specificamente per sfuggire alla sensazione di essere osservata, l'ironia è evidente. Ciò solleva una domanda fondamentale sul futuro di Internet: potremo mai avere davvero un'utilità di alto livello senza rinunciare alla nostra assoluta anonimità?
Per capire perché questa mossa sembri un tale tradimento per alcuni, dobbiamo guardare all'atmosfera che l'ha preceduta. A metà del 2024 e per tutto il 2025, OpenAI ha affrontato una serie di crisi di pubbliche relazioni riguardanti la gestione dei dati e il suo rapporto con le agenzie federali. Ciò ha creato un vuoto che Anthropic è stata felice di colmare. Si sono presentati come i creatori della "IA Costituzionale", un sistema governato da un insieme di principi etici piuttosto che da semplici schemi di dati grezzi.
Per l'utente medio, Claude sembrava una versione più riflessiva e meno "aziendale" del futuro dell'IA. Era lo stagista instancabile che non si limitava a fare il lavoro, ma sembrava tenere alle regole. Tuttavia, la fase di luna di miele del boom dell'IA sta finendo e la realtà normativa si sta facendo sentire. La nuova verifica dell'identità di Anthropic non è un capriccio casuale; è una risposta alla pressione sistemica di gestire uno strumento che viene sempre più utilizzato per compiti ad alta posta in gioco.
Sebbene sembri un cambiamento improvviso, guardando il quadro generale si rivela un panorama in mutamento dove "fidarsi ma verificare" sta diventando la procedura operativa obbligatoria per qualsiasi azienda che gestisca enormi quantità di potenza di calcolo.
In termini pratici, Anthropic non sta costruendo un gigantesco database interno di passaporti. Come molte app fintech e servizi di car-sharing, stanno esternalizzando il lavoro pesante a una piattaforma di identità di terze parti chiamata Persona. Quando un utente viene segnalato per la verifica, gli viene chiesto di scansionare il proprio documento d'identità e scattare un selfie di "liveness" per dimostrare di non essere un bot o un deepfake.
Dietro il gergo dell'"integrità della piattaforma", ci sono tre ragioni principali per cui un'azienda come Anthropic farebbe questo passo drastico:
Curiosamente, Anthropic è il primo grande attore a rendere questo elemento una parte visibile dell'esperienza del consumatore. Mentre Google e Microsoft dispongono già di enormi quantità di dati su di te, non ti hanno ancora chiesto di mostrare la patente solo per chattare con il loro bot. La mossa di Anthropic è trasparente, ma per molti è anche fastidiosamente invasiva.
Dal punto di vista del consumatore, la scelta tra i fornitori di IA non riguarda più solo quale scrive poesie o codice migliori. Si tratta di quale "tassa" sei disposto a pagare per il servizio.
| Caratteristica | Anthropic (Claude) | OpenAI (ChatGPT) | Google (Gemini) |
|---|---|---|---|
| Fonte Dati Primaria | Prompt forniti dall'utente | Prompt forniti dall'utente | Ecosistema Google integrato |
| Verifica Identità | Documento d'identità/Selfie (per alcuni) | Email/Numero di telefono | Cronologia Account Google |
| Opt-out Addestramento | Disponibile per utenti Pro/Team | Disponibile nelle impostazioni | Disponibile nelle impostazioni |
| Condivisione Terze Parti | Utilizza Persona per controlli ID | Condiviso con partner di sicurezza | Condivisione dati interna Google |
In sostanza, stiamo assistendo a una scissione nel modo in cui viene gestita la privacy. Google e Microsoft sanno già chi sei perché vivi nei loro ecosistemi. OpenAI ti conosce attraverso il tuo numero di telefono e il metodo di pagamento. Anthropic, mancando di quei dati storici profondi, sta scegliendo un metodo di verifica più robusto e "rigido".
Per la persona che usa Claude per riassumere un PDF o aiutare a scrivere un'email, questo potrebbe sembrare eccessivo. Per dirla in un altro modo, è come se venisse chiesta un'impronta digitale per entrare in una biblioteca pubblica. Tuttavia, il filtro "E allora?" suggerisce che questo sia l'inizio di una tendenza più ampia.
Man mano che i modelli di IA diventano più capaci di compiere azioni nel mondo reale — come prenotare voli, spostare denaro o accedere a cartelle cliniche — la necessità di una "Prova di Umanità" (Proof of Personhood) crescerà. Se un agente di IA agirà per tuo conto, il sistema deve essere sicuro al 100% che sia effettivamente tu a dare gli ordini.
Sul lato del mercato, questa mossa potrebbe effettivamente danneggiare la crescita di Anthropic a breve termine. La natura volatile della fiducia degli utenti significa che anche un piccolo punto di frizione come un controllo dell'identità può spingere le persone a correre verso i concorrenti. Ma da una prospettiva aziendale resiliente, Anthropic sta probabilmente scommettendo che essere l'azienda "più conforme" la renderà la scelta preferita per i grandi clienti aziendali e i contratti governativi a lungo termine.
In definitiva, i "timori di sorveglianza" che hanno spinto gli utenti verso Claude non sono stati risolti; hanno solo cambiato forma. Siamo passati dal preoccuparci che i nostri dati venissero usati per addestrare un cervello, al preoccuparci che la nostra identità fisica sia legata alle nostre interrogazioni digitali.
Se ti viene chiesto di verificare la tua identità, hai una scelta da fare. Anthropic dichiara che questi dati non vengono utilizzati per l'addestramento e sono gestiti da una società di sicurezza specializzata. Per molti, l'utilità dello "stagista instancabile" vale lo scambio. Per altri, il requisito è un passo di troppo.
Guardando il quadro generale, dovremmo aspettarci che questo diventi lo standard del settore. L'era dell'assistente IA anonimo e ad alta potenza sta probabilmente volgendo al termine. Poiché questi strumenti diventano il petrolio greggio digitale della nostra economia, i guardiani vorranno vedere un documento d'identità prima di lasciarci pompare.
Invece di vedere questo come il tradimento di una singola azienda, osservalo come un segnale di dove sta andando l'intero Internet. Ci stiamo muovendo verso un "web verificato" dove le tue azioni digitali sono vincolate al tuo io fisico. Se questo renderà il mondo più sicuro o solo più restrittivo è una domanda a cui risponderemo nel prossimo decennio. Per ora, tieni il passaporto a portata di mano: la tua IA potrebbe averne bisogno.



La nostra soluzione di archiviazione e-mail crittografata end-to-end fornisce i mezzi più potenti per lo scambio sicuro dei dati, garantendo la sicurezza e la privacy dei tuoi dati.
/ Creare un account gratuito