Depuis un an, une migration silencieuse est en cours dans le monde de l'intelligence artificielle. Alors qu'OpenAI et son ChatGPT restent les noms les plus connus, une cohorte importante d'utilisateurs avertis, de développeurs et d'écrivains soucieux de leur vie privée ont fait leurs bagages numériques pour rejoindre Claude d'Anthropic. Le récit était simple : OpenAI devenait trop proche des intérêts de surveillance gouvernementale — illustré par la nomination d'un ancien directeur de la NSA à son conseil d'administration — tandis qu'Anthropic restait l'alternative de principe, axée sur la sécurité.
Mais la réalité de l'industrie technologique est rarement aussi binaire. Cette semaine, ce récit a rencontré un obstacle de taille. Anthropic a discrètement mis à jour ses protocoles pour inclure une exigence selon laquelle certains utilisateurs doivent fournir une pièce d'identité avec photo émise par le gouvernement et un selfie en direct pour continuer à utiliser le service. Pour une communauté qui a rejoint Claude spécifiquement pour échapper au sentiment d'être surveillée, l'ironie est frappante. Cela soulève une question fondamentale sur l'avenir d'Internet : pouvons-nous un jour bénéficier d'une utilité de haut niveau sans renoncer à notre anonymat absolu ?
Pour comprendre pourquoi cette décision ressemble à une trahison pour certains, il faut examiner l'atmosphère qui l'a précédée. À la mi-2024 et tout au long de l'année 2025, OpenAI a été confrontée à une série de crises de relations publiques concernant la gestion des données et ses relations avec les agences fédérales. Cela a créé un vide qu'Anthropic a été heureux de combler. Ils se sont présentés comme les créateurs de l'« IA constitutionnelle », un système régi par un ensemble de principes éthiques plutôt que par de simples modèles de données brutes.
Pour l'utilisateur moyen, Claude ressemblait à une version plus réfléchie et moins « corporate » de l'avenir de l'IA. C'était le stagiaire infatigable qui ne se contentait pas de faire le travail, mais semblait se soucier des règles. Cependant, la phase de lune de miel de l'essor de l'IA touche à sa fin et la réalité réglementaire s'installe. La nouvelle vérification d'identité d'Anthropic n'est pas un caprice aléatoire ; c'est une réponse à la pression systémique liée à l'exploitation d'un outil de plus en plus utilisé pour des tâches à enjeux élevés.
Bien que cela semble être un pivot soudain, une vue d'ensemble révèle un paysage changeant où « faire confiance mais vérifier » devient la procédure opérationnelle obligatoire pour toute entreprise gérant des quantités massives de puissance de calcul.
D'un point de vue pratique, Anthropic ne construit pas une base de données géante de passeports en interne. Comme de nombreuses applications de fintech et de services d'autopartage, ils sous-traitent le travail lourd à une plateforme d'identité tierce appelée Persona. Lorsqu'un utilisateur est signalé pour vérification, il est invité à scanner sa pièce d'identité et à prendre un selfie « de présence » pour prouver qu'il n'est pas un bot ou un deepfake.
Derrière le jargon de « l'intégrité de la plateforme », il y a trois raisons principales pour lesquelles une entreprise comme Anthropic prendrait cette mesure drastique :
Curieusement, Anthropic est le premier acteur majeur à faire de cela une partie visible de l'expérience grand public. Alors que Google et Microsoft disposent déjà de vastes quantités de données sur vous, ils ne vous ont pas encore demandé de brandir votre permis de conduire juste pour discuter avec leur bot. La démarche d'Anthropic est transparente, mais pour beaucoup, elle est aussi étrangement intrusive.
Du point de vue du consommateur, le choix entre les fournisseurs d'IA ne se résume plus à savoir lequel écrit le mieux de la poésie ou du code. Il s'agit de savoir quelle « taxe » vous êtes prêt à payer pour le service.
| Caractéristique | Anthropic (Claude) | OpenAI (ChatGPT) | Google (Gemini) |
|---|---|---|---|
| Source de données primaire | Prompts fournis par l'utilisateur | Prompts fournis par l'utilisateur | Écosystème Google intégré |
| Vérification d'identité | ID gouvernemental/Selfie (pour certains) | Email/Numéro de téléphone | Historique du compte Google |
| Désactivation de l'entraînement | Disponible pour les utilisateurs Pro/Team | Disponible dans les paramètres | Disponible dans les paramètres |
| Partage avec des tiers | Utilise Persona pour les vérifications d'ID | Partagé avec des partenaires de sécurité | Partage de données interne à Google |
Essentiellement, nous assistons à une scission dans la gestion de la confidentialité. Google et Microsoft savent déjà qui vous êtes parce que vous vivez dans leurs écosystèmes. OpenAI vous connaît via votre numéro de téléphone et votre mode de paiement. Anthropic, manquant de ces données historiques profondes, choisit une méthode de vérification plus robuste et « dure ».
Pour la personne utilisant Claude pour résumer un PDF ou aider à rédiger un e-mail, cela peut sembler excessif. Pour le dire autrement, c'est comme si on vous demandait une empreinte digitale pour entrer dans une bibliothèque publique. Cependant, l'analyse suggère que c'est le début d'une tendance plus large.
À mesure que les modèles d'IA deviennent plus capables d'effectuer des actions dans le monde réel — comme réserver des vols, transférer de l'argent ou accéder à des dossiers médicaux — le besoin d'une « preuve d'humanité » augmentera. Si un agent d'IA doit agir en votre nom, le système doit être sûr à 100 % que c'est bien vous qui donnez les ordres.
Sur le plan du marché, cette décision pourrait nuire à la croissance d'Anthropic à court terme. La nature volatile de la confiance des utilisateurs signifie que même un petit point de friction comme un contrôle d'identité peut pousser les gens vers la concurrence. Mais d'un point de vue commercial résilient, Anthropic parie probablement sur le fait qu'être l'entreprise « la plus conforme » en fera le choix privilégié des grands clients d'entreprise et des contrats gouvernementaux à long terme.
En fin de compte, les « craintes de surveillance » qui ont poussé les utilisateurs vers Claude n'ont pas été résolues ; elles ont juste changé de forme. Nous sommes passés de l'inquiétude de voir nos données utilisées pour entraîner un cerveau à l'inquiétude de voir notre identité physique liée à nos requêtes numériques.
Si vous êtes invité à vérifier votre identité, vous avez un choix à faire. Anthropic affirme que ces données ne sont pas utilisées pour l'entraînement et sont gérées par une société de sécurité spécialisée. Pour beaucoup, l'utilité du « stagiaire infatigable » vaut le compromis. Pour d'autres, l'exigence est un pas de trop.
En regardant la situation dans son ensemble, nous devrions nous attendre à ce que cela devienne la norme de l'industrie. L'ère de l'assistant IA anonyme et ultra-puissant touche probablement à sa fin. Alors que ces outils deviennent le pétrole brut numérique de notre économie, les gardiens vont vouloir voir une pièce d'identité avant de nous laisser pomper.
Plutôt que de voir cela comme la trahison d'une seule entreprise, observez-le comme un signal de la direction que prend l'ensemble d'Internet. Nous nous dirigeons vers un « web vérifié » où vos actions numériques sont liées à votre identité physique. Que cela rende le monde plus sûr ou simplement plus restrictif est une question à laquelle nous répondrons au cours de la prochaine décennie. Pour l'instant, gardez votre passeport à portée de main — votre IA pourrait en avoir besoin.



Notre solution de messagerie cryptée de bout en bout et de stockage en nuage constitue le moyen le plus puissant d'échanger des données en toute sécurité, garantissant ainsi la sûreté et la confidentialité de vos données.
/ Créer un compte gratuit