Pendant la majeure partie de ces trois dernières années, ChatGPT d'OpenAI a été le champion incontesté des poids lourds du monde de l'IA grand public. Cependant, des données récentes suggèrent que même les géants technologiques les plus dominants ne sont pas à l'abri de la volatilité de l'opinion publique. Suite à l'annonce d'un partenariat majeur entre OpenAI et le Département de la Défense des États-Unis (DoD) — récemment rebaptisé Département de la Guerre — l'application mobile a connu une augmentation stupéfiante de 295 % des désinstallations en une seule journée.
Cet exode massif, survenu le samedi 28 février, marque un tournant significatif pour l'entreprise. Alors qu'OpenAI a navigué à travers des controverses concernant le siphonnage de données et les droits d'auteur par le passé, la réaction brutale à son implication directe dans l'infrastructure militaire représente un nouveau type de friction : un désaccord fondamental entre un fournisseur de services et sa base d'utilisateurs sur les frontières éthiques de l'intelligence artificielle.
Selon le fournisseur d'intelligence de marché Sensor Tower, le bond de 295 % des désinstallations est une anomalie extrême. Pour mettre cela en perspective, le taux de désinstallation quotidien typique de ChatGPT a oscillé autour de 9 % au cours du dernier mois. Un bond de près de 300 % suggère qu'il ne s'agissait pas d'une perte graduelle d'utilisateurs désintéressés, mais d'une protestation coordonnée ou spontanée d'une partie importante du public américain.
Bien que les chiffres de téléchargement fassent souvent la une, la métrique de « désinstallation » est un indicateur plus viscéral de la santé d'une marque. Elle représente un choix actif du consommateur de retirer un outil de son espace personnel. Dans ce cas, les données suggèrent que pour des centaines de milliers d'utilisateurs, l'utilité de l'IA ne l'emportait plus sur l'inconfort de ses nouvelles associations.
Le catalyseur de ce changement a été la confirmation d'un accord de grande envergure entre OpenAI et le Département de la Guerre. Sous le rebranding du DoD par l'administration Trump, le département a adopté une position plus affirmée sur l'intégration des technologies émergentes dans l'appareil de défense nationale. L'accord impliquerait l'intégration de grands modèles de langage (LLM) dans la planification stratégique, les opérations logistiques et, potentiellement, les systèmes d'aide à la décision sur le champ de bataille.
Pour de nombreux utilisateurs, cela ressemble à une trahison de l'éthos fondateur d'OpenAI. L'entreprise a été initialement établie avec pour mission de garantir que l'intelligence artificielle générale profite à toute l'humanité. Alors que la transition d'une organisation à but non lucratif vers une entité à « profit plafonné » a été la première fissure dans cette image, le saut dans les contrats militaires est, pour beaucoup, la rupture finale. Cela transforme l'IA d'un assistant créatif ou d'un partenaire de codage en un composant de conflit parrainé par l'État.
Pour comprendre pourquoi les utilisateurs appuient sur le bouton de suppression, nous devons examiner le concept de technologie à « double usage ». Tout comme le GPS a été développé pour l'armée avant de devenir essentiel pour la navigation civile, l'IA a des applications claires dans les deux mondes. Cependant, l'IA est unique car elle imite le raisonnement et la prise de décision humaine.
Lorsqu'un utilisateur interagit avec ChatGPT, il existe un niveau d'intimité perçu. Les gens l'utilisent pour écrire des lettres personnelles, réfléchir à des idées commerciales et même chercher un soutien en santé mentale. La prise de conscience que le même moteur sous-jacent est réglé pour optimiser les frappes militaires ou les jeux de guerre crée une dissonance cognitive que beaucoup trouvent impossible à concilier. C'est l'équivalent numérique de découvrir que votre bibliothécaire préféré a pris un deuxième emploi d'expert en munitions.
Le moment de cette poussée est également lié au climat politique. Le rebranding du Département de la Défense vers son nom d'avant 1947, le « Département de la Guerre », a été une mesure polarisante. En s'alignant avec le département sous cette nomenclature spécifique, OpenAI s'est aventuré dans une atmosphère politique chargée. Pour un segment de la population, la désinstallation n'est pas seulement une position éthique sur l'IA, mais une déclaration politique contre les politiques de défense de l'administration actuelle.
La perte d'OpenAI pourrait être le gain de ses concurrents. À la suite de la poussée du 28 février, des plateformes d'IA alternatives comme Claude d'Anthropic et des modèles décentralisés et open-source ont connu une augmentation notable de l'engagement. Anthropic, en particulier, se commercialise depuis longtemps sur les piliers de la « sécurité de l'IA » et de l'« IA constitutionnelle », se positionnant comme l'alternative plus éthique à l'expansionnisme plus agressif d'OpenAI.
Si cette tendance se poursuit, nous pourrions assister à une balkanisation du marché de l'IA. Les utilisateurs pourraient commencer à choisir leurs outils non seulement en fonction des performances ou des fonctionnalités, mais aussi de la « boussole morale » de la société mère. Cela pourrait forcer les entreprises technologiques à être beaucoup plus transparentes sur leurs contrats gouvernementaux et les manières spécifiques dont leurs modèles sont utilisés.
Si vous reconsidérez votre utilisation de ChatGPT à la lumière de ces développements, voici comment vous pouvez naviguer dans la transition :
À ce jour, OpenAI n'a pas publié de réponse formelle aux données de Sensor Tower. Reste à savoir s'il s'agit d'un incident passager ou du début d'un déclin à long terme, mais une chose est claire : l'ère de l'IA « neutre » est terminée.



Notre solution de messagerie cryptée de bout en bout et de stockage en nuage constitue le moyen le plus puissant d'échanger des données en toute sécurité, garantissant ainsi la sûreté et la confidentialité de vos données.
/ Créer un compte gratuit