Power Reads

L'ONU met en place un groupe mondial de 40 experts sur la sécurité de l'IA face aux avertissements croissants des initiés

L'ONU lance un panel scientifique de 40 membres pour étudier les risques de l'IA, naviguant entre tensions géopolitiques et appels à la transparence des lanceurs d'alerte.
Linda Zola
Linda Zola
14 février 2026
L'ONU met en place un groupe mondial de 40 experts sur la sécurité de l'IA face aux avertissements croissants des initiés

Dans une démarche visant à combler le fossé entre les progrès technologiques rapides et la surveillance internationale, le Secrétaire général des Nations Unies, António Guterres, a officiellement inauguré un groupe scientifique mondial de 40 membres dédié à la sécurité de l'intelligence artificielle. Décrit par Guterres comme une « étape fondamentale vers une compréhension scientifique mondiale de l'IA », ce groupe est chargé d'enquêter sur les risques existentiels et systémiques posés par les modèles avancés d'apprentissage automatique.

La formation de cet organisme intervient à un moment charnière. Au cours de l'année écoulée, un chœur croissant de lanceurs d'alerte et d'anciens employés de leaders du secteur tels qu'OpenAI, Anthropic et Google DeepMind ont exprimé leurs inquiétudes concernant le manque de transparence et la rapidité avec laquelle les modèles de pointe sont déployés. Cette initiative de l'ONU représente le premier effort concerté pour centraliser le consensus scientifique sur l'IA à l'échelle mondiale, indépendamment de l'influence des entreprises.

Le catalyseur : les alertes provenant de l'industrie

La poussée en faveur d'un organisme centralisé de l'ONU a été considérablement accélérée par le mouvement « Right to Warn » (Droit d'alerter). Ce groupe d'initiés de la tech a soutenu que les incitations actuelles axées sur le profit empêchent les entreprises de divulguer la véritable ampleur des risques associés à l'intelligence artificielle générale (IAG). Ils ont souligné des préoccupations allant de l'érosion des processus démocratiques via les deepfakes au potentiel des systèmes autonomes à échapper au contrôle humain.

En établissant ce panel, l'ONU cherche à fournir une plateforme où les preuves scientifiques — plutôt que les relations publiques des entreprises — dictent le récit mondial sur la sécurité. Les 40 membres, issus du monde universitaire, de la société civile et de centres de recherche technique de diverses zones géographiques, sont censés agir comme un arbitre neutre de la vérité dans un paysage technologique de plus en plus polarisé.

Naviguer dans les frictions géopolitiques

Le lancement du panel ne s'est pas fait sans controverse. Les États-Unis, ainsi que plusieurs alliés clés, ont initialement exprimé une forte opposition à cette initiative. La friction découle d'un désaccord fondamental sur le lieu où doit résider le pouvoir de l'IA. Alors que les États-Unis ont défendu des cadres de sécurité dirigés par l'industrie et le processus d'Hiroshima sur l'IA mené par le G7, l'approche de l'ONU privilégie un modèle de gouvernance multilatéral plus inclusif.

Les détracteurs à Washington soutiennent qu'un organisme dirigé par l'ONU pourrait s'enliser dans la bureaucratie ou être utilisé par des nations rivales pour étouffer l'innovation occidentale. À l'inverse, les partisans du panel soutiennent que l'IA est une technologie « sans frontières », tout comme le changement climatique, nécessitant une réponse mondiale incluant le Sud global, souvent laissé de côté dans les discussions centrées sur la Silicon Valley.

Un « GIEC pour l'IA » scientifique

Pour comprendre la mission du panel, on peut regarder du côté du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC). Tout comme le GIEC ne définit pas de politique mais fournit les données scientifiques qui éclairent les traités mondiaux sur le climat, le panel de l'ONU sur l'IA vise à créer un rapport partagé sur « l'état de la science ». Ce rapport servira de base aux nations pour élaborer leurs propres réglementations nationales sans avoir à réinventer la roue.

Les domaines d'intervention clés du panel comprennent :

  • Quantification des risques : Développer des mesures standardisées pour évaluer le potentiel de tromperie ou de production de contenus nuisibles d'un modèle.
  • Souveraineté des données : Aborder la question de la provenance des données d'entraînement et de l'impact sur la propriété intellectuelle dans différentes juridictions.
  • Interopérabilité : Veiller à ce que les normes de sécurité d'un pays puissent être reconnues et appliquées dans un autre.

Implications pratiques pour le secteur technologique

Pour les développeurs, les startups et les dirigeants d'entreprise, l'implication de l'ONU signale un passage des « engagements de sécurité » volontaires vers un environnement réglementaire plus structuré. Bien que le panel n'ait pas le pouvoir d'adopter des lois, ses conclusions influenceront probablement les futurs accords commerciaux internationaux et les audits de sécurité nationaux.

Caractéristique Cadres dirigés par l'industrie Groupe scientifique mondial de l'ONU
Objectif principal Innovation et stabilité du marché Sécurité mondiale et droits de l'homme
Transparence Propriétaire / Interne Public / Examiné par les pairs
Inclusivité Pôles technologiques à hauts revenus Représentation multilatérale mondiale
Application Conformité volontaire Éclairage du droit international

Que faire ensuite : se préparer aux normes mondiales

Alors que le groupe commence ses travaux, les organisations devraient dépasser une posture réactive sur la sécurité de l'IA. Voici les étapes pratiques que les leaders technologiques devraient envisager :

  1. Audit de transparence : Examinez vos pipelines internes de développement d'IA. Pouvez-vous expliquer comment vos modèles parviennent à des conclusions spécifiques ? Le panel de l'ONU recommandera probablement des normes élevées en matière d'« explicabilité ».
  2. Surveiller les références internationales : Restez informés des briefings trimestriels du panel. Ceux-ci deviendront probablement le modèle des futures exigences de conformité dans l'UE, en Asie et, à terme, aux États-Unis.
  3. S'engager dans des dialogues multipartites : Ne comptez pas uniquement sur les groupes industriels. Participez à des forums incluant la société civile et des chercheurs universitaires pour obtenir une perspective plus large sur l'impact de l'IA.
  4. Prioriser la recherche sur la sécurité : Allouez un pourcentage de la R&D spécifiquement à la sécurité et à l'alignement. L'écart entre « capacité » et « sécurité » est la préoccupation majeure du nouvel organisme de l'ONU.

Le long chemin à parcourir

L'établissement de ce panel de 40 membres est une reconnaissance du fait que l'IA n'est plus seulement un produit commercial ; c'est un service public mondial doté du pouvoir de remodeler les sociétés. Bien que la voie politique reste semée d'embûches, l'engagement envers une approche scientifique et fondée sur des preuves offre une lueur d'espoir pour un avenir où la technologie sert l'humanité de manière sûre et équitable.

Sources :

  • United Nations: Secretary-General's High-level Advisory Body on Artificial Intelligence
  • Reuters: UN appoints global panel to study AI risks
  • The Guardian: Tech whistleblowers call for right to warn on AI risks
  • UN News: Guterres announces 40-member AI advisory body
bg
bg
bg

On se retrouve de l'autre côté.

Notre solution de messagerie cryptée de bout en bout et de stockage en nuage constitue le moyen le plus puissant d'échanger des données en toute sécurité, garantissant ainsi la sûreté et la confidentialité de vos données.

/ Créer un compte gratuit