La relation entre la Silicon Valley et l'armée a toujours été un exercice d'équilibriste, mais pour OpenAI, la corde a peut-être fini par rompre. En mars 2026, un mouvement citoyen baptisé « QuitGPT » est passé d'un simple hashtag sur les réseaux sociaux à un véritable casse-tête commercial pour le plus important laboratoire d'IA au monde. Avec plus de 1,5 million d'utilisateurs qui auraient annulé leur abonnement Plus ou supprimé leur compte, l'entreprise fait face à sa plus grave crise de relations publiques depuis le bref évincement de Sam Altman fin 2023.
Au cœur de la controverse se trouve un accord de plusieurs milliards de dollars visant à intégrer les modèles phares d'OpenAI dans les réseaux classifiés du département de la Défense des États-Unis. Alors qu'OpenAI soutient que le partenariat se concentre sur la logistique et la cybersécurité, la perception publique de « ChatGPT dans la salle de crise » a déclenché une tempête de débats éthiques.
Les frictions ont commencé au début de l'année 2024, lorsqu'OpenAI a discrètement supprimé de sa politique d'utilisation les mentions interdisant explicitement les applications « militaires et de guerre ». À l'époque, l'entreprise affirmait que ce changement était nécessaire pour permettre des cas d'utilisation « à double usage », comme l'aide aux anciens combattants en matière de soins de santé ou l'amélioration de la logistique militaire. Cependant, l'accord de 2026 représente une intégration bien plus profonde.
Selon des rapports circulant dans l'industrie technologique, le nouvel accord prévoit le déploiement de versions spécialisées de GPT-5 (et de ses successeurs) au sein du cadre « Joint Warfighting Cloud Capability » (JWCC). Il ne s'agit pas seulement de rédiger des courriels ; il s'agit d'analyser de vastes quantités de données de renseignement et d'aider à la prise de décisions stratégiques. Pour de nombreux utilisateurs de longue date qui considéraient OpenAI comme un outil de créativité démocratique, ce virage vers le « complexe militaro-industriel » ressemble à une trahison de la charte originale de l'entreprise.
Le mouvement, organisé principalement via le portail quitgpt.org, affirme avoir atteint une masse critique. Les organisateurs soutiennent que l'IA doit rester une technologie neutre et civile. Leur plateforme repose sur le principe que la « démocratisation de l'intelligence » est incompatible avec le développement d'outils destinés à la violence d'État.
« Nous assistons à un changement fondamental du sentiment des utilisateurs », déclare l'un des organisateurs numériques du mouvement. « Les gens réalisent que leurs frais d'abonnement mensuels subventionnent de fait le développement de technologies qui seront finalement utilisées dans la guerre cinétique. Ils votent avec leur portefeuille. »
Au-delà des 1,5 million de départs signalés, le mouvement a gagné du terrain parmi les chercheurs universitaires et les développeurs de logiciels qui optent de plus en plus pour des alternatives open-source comme la série Llama de Meta ou Mistral, citant des inquiétudes sur la manière dont leurs données et leurs boucles de rétroaction sont utilisées.
La direction d'OpenAI n'est pas restée silencieuse. Dans une note interne récente, les dirigeants ont fait valoir que fournir à l'armée américaine l'IA la plus avancée est une question de sécurité nationale et de préservation démocratique. Ils soutiennent que si les entreprises d'IA « occidentales » ne s'associent pas à leurs gouvernements respectifs, les régimes autoritaires obtiendront un avantage technologique décisif.
Pour comprendre la complexité, considérez la comparaison suivante des deux philosophies prédominantes dans l'industrie de l'IA aujourd'hui :
| Caractéristique | Le modèle d'« intérêt national » (OpenAI) | Le modèle « neutre/ouvert » (QuitGPT/Open-Source) |
|---|---|---|
| Objectif principal | Assurer la suprématie technologique démocratique. | Garantir que l'IA reste un service public mondial et civil. |
| Position militaire | Collaborative ; accent sur la logistique et la défense. | Non-participation stricte aux contrats militaires. |
| Gouvernance des données | Centralisée et conforme à la sécurité de l'État. | Décentralisée ou strictement privée/locale. |
| Sources de financement | Capital-risque privé + contrats gouvernementaux. | Communautaire, académique ou entreprises diverses. |
Le contraste perçu avec Anthropic ajoute de l'huile sur le feu. Alors qu'OpenAI s'est rapprochée du Pentagone, Anthropic s'est historiquement positionnée comme une entreprise privilégiant la sécurité (« safety-first »). Cependant, même Anthropic a fait l'objet d'un examen minutieux concernant ses propres discussions avec des agences de défense, ce qui a mené à un scepticisme généralisé à l'égard de l'ensemble de l'écosystème de la « Big AI ». Cela a créé un vide que les projets open-source s'empressent de combler, promettant aux utilisateurs que leurs modèles ne seront jamais vendus au plus offrant militaire.
Si vous vous sentez en phase avec le mouvement « QuitGPT » ou si vous êtes simplement préoccupé par la trajectoire éthique de vos outils d'IA, voici plusieurs mesures pratiques que vous pouvez prendre pour faire évoluer votre flux de travail :
Le mouvement « Cancel ChatGPT » est un test décisif pour l'industrie de l'IA. Il pose une question difficile : une entreprise peut-elle être à la fois une marque grand public mondiale et un fournisseur principal de la défense ? Alors que les frontières entre logiciel et armement continuent de s'estomper, le choix des utilisateurs ne porte plus seulement sur le modèle le plus intelligent, mais sur l'entreprise qui s'aligne avec leur éthique personnelle.
Reste à savoir si ce boycott forcera OpenAI à changer de cap. Cependant, l'ampleur même de la vague « QuitGPT » suggère que l'ère de la « croissance à tout prix » dans l'IA pourrait rencontrer sa première véritable résistance de la part de ceux-là mêmes qui ont aidé à construire son succès : les utilisateurs.



Notre solution de messagerie cryptée de bout en bout et de stockage en nuage constitue le moyen le plus puissant d'échanger des données en toute sécurité, garantissant ainsi la sûreté et la confidentialité de vos données.
/ Créer un compte gratuit