L’introduction d’identités uniques pour les agents d’IA au sein de la plateforme Gemini Enterprise de Google marque une transition fondamentale dans notre conception du périmètre de l’entreprise. Pendant des années, le secteur de la cybersécurité a lutté pour catégoriser l’IA : était-ce un outil, un utilisateur ou un compte de service ? En formalisant les identités des agents d’IA, Google a effectivement mis fin à l’ère de l’interaction IA « basée sur un proxy ». Nous ne sécurisons plus un humain qui utilise l’IA ; nous sécurisons une entité semi-autonome possédant sa propre empreinte cryptographique et ses propres droits d’accès.
Auparavant, les interactions avec l’IA étaient largement liées à l’identité de l’utilisateur humain ou à un compte de service générique. Cela créait un écart de visibilité important. Lorsqu’un agent propulsé par un LLM accédait à une base de données sensible pour générer un rapport, les journaux d’audit affichaient l’utilisateur humain — ou pire, une clé API aux permissions étendues — effectuant l’action. Cette opacité agissait comme un allié tacite pour les attaquants potentiels, car un mouvement latéral malveillant pouvait être masqué au sein d’un trafic d’IA légitime.
Désormais, la logique bascule vers un modèle où l’agent d’IA est un citoyen de premier rang dans la hiérarchie de la gestion des identités et des accès (IAM). En pratique, cela signifie que les équipes de sécurité peuvent enfin appliquer des politiques granulaires spécifiquement à l’agent. Cependant, cette avancée architecturale introduit une nouvelle forme de complexité : la gestion des identités non humaines (NHI) à une échelle qui dépasse les capacités de supervision humaine. Dans les environnements cloud modernes, les NHI sont déjà 45 fois plus nombreuses que les utilisateurs humains ; l’ajout d’identités uniques pour chaque agent d’IA déployé ne fera qu’accentuer cette asymétrie d’accès.
Pour mesurer l’ampleur du risque, il faut examiner l’état actuel de la gestion des vulnérabilités. La plupart des entreprises peinent déjà avec l’hygiène de base des comptes de service statiques. L’introduction d’agents d’IA dynamiques — des entités capables de générer du code, d’appeler des API et d’interpréter des données en temps réel — nécessite un niveau de résilience architecturale que peu de composants hérités peuvent supporter. Le modèle de menace a changé : nous ne nous inquiétons plus seulement d’un mot de passe volé ; nous nous inquiétons de l’« injection de requêtes » (prompt injection) menant à une élévation de privilèges non autorisée par une identité interne de confiance.
Si un agent d’IA possède sa propre identité et un ensemble de permissions, il devient une cible de haute valeur pour un compromis furtif. Un attaquant n’a pas besoin de casser le modèle de base lui-même. Au lieu de cela, il exploite l’autorité déléguée de l’agent pour contourner les points de friction traditionnels dans le pipeline CI/CD ou la structure de reporting financier. Lorsqu’un agent reçoit le pouvoir d’« agir » plutôt que de simplement « suggérer », son rayon d’action (blast radius) s’étend de manière exponentielle.
Dans cette nouvelle réalité, nous devons accepter qu’une DMZ n’est pas une zone commune, mais une cellule d’isolement individuelle. L’approche héritée « faire confiance mais vérifier » au sein du réseau interne est effectivement morte. Pour atténuer les risques liés aux identités d’IA uniques, nous devons adopter une stratégie de microsegmentation spécifiquement pour les flux de travail agentiques.
| Fonctionnalité | Intégration IA héritée | Identités d’agent Google Gemini |
|---|---|---|
| Type d’identité | Compte de service partagé / Proxy humain | Identifiant IA cryptographique unique |
| Auditabilité | Faible (Attribuée à l’utilisateur humain) | Haute (Attribution directe à l’agent) |
| Modèle d’accès | Permissions larges et persistantes | Granulaire, basé sur la session (idéalement) |
| Profil de risque | Mouvement latéral masqué | Surface d’attaque identifiée mais étendue |
| Gouvernance | Manuelle / Basée sur les politiques | Programmatique / Zero Trust requis |
Pour plus de clarté, l’objectif n’est pas d’empêcher l’IA d’accéder aux données, mais de s’assurer que son accès est strictement limité à la tâche spécifique pour laquelle elle a été sollicitée. C’est la mentalité du « bac à sable » (sandbox) appliquée à l’identité. Chaque identité d’agent d’IA doit être traitée comme un vecteur potentiel de compromission dès le premier jour.
L’une des transitions les plus critiques dans ce paysage est l’émergence de l’asymétrie d’accès. Un agent d’IA peut scanner, interpréter et agir sur des milliers de documents dans le temps qu’il faut à un humain pour lire un seul titre. Si une identité d’agent est sur-provisionnée, la vitesse d’exploitation pour un attaquant qui prend le contrôle de cet agent est presque instantanée. La gestion des correctifs sur un rythme mensuel est un luxe que nous ne possédons plus face à des entités automatisées.
Cette vitesse nécessite un passage vers une défense proactive et automatisée. Les plateformes d’orchestration, d’automatisation et de réponse en matière de sécurité (SOAR) doivent désormais être réglées pour surveiller la « dérive comportementale » des identités d’IA. Si un agent Gemini qui gère habituellement les demandes RH commence soudainement à interroger le schéma de la base de données de production, l’identité doit être révoquée en quelques millisecondes, et non en quelques heures.
Pour le CISO, le déploiement d’identités d’IA uniques n’est pas une fonctionnalité que l’on active et que l’on oublie. Cela nécessite une refonte structurée de la stratégie IAM. Ce qui doit être reconsidéré précisément, c’est le cycle de vie de ces identités — de leur création à leur déclassement.
L’initiative de Google d’introduire des identités d’agent d’IA uniques est une reconnaissance pragmatique que l’IA n’est plus un outil périphérique, mais un composant systémiquement important de l’infrastructure d’entreprise. Ce changement offre la visibilité que nous réclamions depuis longtemps, mais il supprime la sécurité liée à l’obscurité. Dans cette nouvelle ère, le périmètre s’est véritablement dissous en un million d’identités individuelles, chacune représentant une porte ouverte potentielle si elle n’est pas gérée avec une rigueur architecturale.
La survie dans ce paysage dépend de la vitesse et de l’architecture, pas de l’espoir. L’objectif n’est pas d’atteindre un état de sécurité parfaite — ce qui est un leurre — mais de s’assurer que lorsqu’une identité d’IA est compromise, le rayon d’action est si étroitement limité que la brèche n’est qu’une simple note de bas de page plutôt qu’une catastrophe.
Sources :
Avertissement : Cet article est fourni à des fins d’information et d’éducation uniquement. Il ne remplace pas un audit professionnel de cybersécurité, une évaluation des risques sur mesure ou un service de réponse aux incidents. Chaque environnement d’entreprise est unique et nécessite une vérification technique spécifique.



Notre solution de messagerie cryptée de bout en bout et de stockage en nuage constitue le moyen le plus puissant d'échanger des données en toute sécurité, garantissant ainsi la sûreté et la confidentialité de vos données.
/ Créer un compte gratuit