Per la maggior parte degli ultimi tre anni, ChatGPT di OpenAI è stato il campione indiscusso dei pesi massimi nel mondo dell'IA consumer. Tuttavia, i dati recenti suggeriscono che anche i giganti tecnologici più dominanti non sono immuni alla volatilità del sentimento pubblico. In seguito all'annuncio di una importante partnership tra OpenAI e il Dipartimento della Difesa degli Stati Uniti (DoD) — recentemente rinominato Dipartimento della Guerra — l'app mobile ha registrato un impressionante aumento del 295% delle disinstallazioni in un solo giorno.
Questo esodo di massa, avvenuto sabato 28 febbraio, segna un punto di svolta significativo per l'azienda. Sebbene OpenAI abbia superato in passato controversie riguardanti lo scraping dei dati e il copyright, la reazione negativa al suo coinvolgimento diretto con le infrastrutture militari rappresenta un nuovo tipo di attrito: un disaccordo fondamentale tra un fornitore di servizi e la sua base di utenti sui confini etici dell'intelligenza artificiale.
Secondo il fornitore di market intelligence Sensor Tower, il balzo del 295% delle disinstallazioni è un valore anomalo estremo. Per contestualizzare, il tasso tipico di disinstallazione giornaliero di ChatGPT ha oscillato intorno al 9% nell'ultimo mese. Un salto di quasi il 300% suggerisce che non si è trattato di un abbandono graduale di utenti disinteressati, ma di una protesta coordinata o spontanea da parte di una porzione significativa del pubblico americano.
Mentre i numeri dei download spesso conquistano i titoli dei giornali, la metrica delle "disinstallazioni" è un indicatore più viscerale della salute del marchio. Rappresenta una scelta attiva da parte del consumatore di rimuovere uno strumento dal proprio spazio personale. In questo caso, i dati suggeriscono che per centinaia di migliaia di utenti, l'utilità dell'IA non superava più il disagio per le sue nuove associazioni.
Il catalizzatore di questo cambiamento è stata la conferma di un ampio accordo tra OpenAI e il Dipartimento della Guerra. Sotto il rebranding del DoD da parte dell'amministrazione Trump, il dipartimento ha assunto una posizione più assertiva nell'integrazione delle tecnologie emergenti nell'apparato di difesa nazionale. L'accordo riguarderebbe l'integrazione di modelli linguistici di grandi dimensioni (LLM) nella pianificazione strategica, nelle operazioni logistiche e, potenzialmente, nei sistemi di supporto alle decisioni sul campo di battaglia.
Per molti utenti, questo sembra un tradimento dell'ethos fondante di OpenAI. L'azienda era stata originariamente istituita con la missione di garantire che l'intelligenza artificiale generale andasse a beneficio di tutta l'umanità. Sebbene il passaggio da un'entità non profit a una a "profitto limitato" sia stata la prima crepa in quell'immagine, il salto nei contratti militari è, per molti, la rottura finale. Trasforma l'IA da assistente creativo o partner di programmazione in una componente di un conflitto sponsorizzato dallo Stato.
Per capire perché gli utenti stiano premendo il pulsante elimina, dobbiamo guardare al concetto di tecnologia a "duplice uso". Proprio come il GPS è stato sviluppato per i militari prima di diventare essenziale per la navigazione civile, l'IA ha chiare applicazioni in entrambi i mondi. Tuttavia, l'IA è unica perché imita il ragionamento e il processo decisionale umano.
Quando un utente interagisce con ChatGPT, c'è un livello di intimità percepita. Le persone lo usano per scrivere lettere personali, fare brainstorming su idee di business e persino cercare supporto per la salute mentale. La consapevolezza che lo stesso motore sottostante venga messo a punto per ottimizzare attacchi militari o giochi di guerra crea una dissonanza cognitiva che molti trovano impossibile da conciliare. È l'equivalente digitale dello scoprire che il tuo bibliotecario preferito ha accettato un secondo lavoro come esperto di munizioni.
Il tempismo dell'impennata è legato anche al clima politico. Il rebranding del Dipartimento della Difesa con il suo nome precedente al 1947, il "Dipartimento della Guerra", è stata una mossa polarizzante. Allineandosi con il dipartimento sotto questa specifica nomenclatura, OpenAI è entrata in un'atmosfera politica carica. Per un segmento della popolazione, la disinstallazione non è solo una posizione etica sull'IA, ma una dichiarazione politica contro le politiche di difesa dell'attuale amministrazione.
La perdita di OpenAI potrebbe essere il guadagno dei suoi concorrenti. Sulla scia dell'impennata del 28 febbraio, piattaforme di IA alternative come Claude di Anthropic e modelli decentralizzati e open-source hanno visto un notevole aumento dell'impegno. Anthropic, in particolare, si è a lungo commercializzata sui pilastri della "Sicurezza dell'IA" e dell' "IA Costituzionale", posizionandosi come l'alternativa più etica all'espansionismo più aggressivo di OpenAI.
Se questa tendenza continua, potremmo assistere a una balcanizzazione del mercato dell'IA. Gli utenti potrebbero iniziare a scegliere i propri strumenti non solo in base alle prestazioni o alle funzionalità, ma sulla base della "bussola morale" della società madre. Ciò potrebbe costringere le aziende tecnologiche a essere molto più trasparenti riguardo ai loro contratti governativi e ai modi specifici in cui i loro modelli vengono utilizzati.
Se stai riconsiderando l'uso di ChatGPT alla luce di questi sviluppi, ecco come puoi gestire la transizione:
Al momento, OpenAI non ha rilasciato una risposta formale ai dati di Sensor Tower. Se questo sia un momento passeggero o l'inizio di un declino a lungo termine resta da vedere, ma una cosa è chiara: l'era dell'IA "neutrale" è finita.



La nostra soluzione di archiviazione e-mail crittografata end-to-end fornisce i mezzi più potenti per lo scambio sicuro dei dati, garantendo la sicurezza e la privacy dei tuoi dati.
/ Creare un account gratuito