Lectures fortes

L'effacement silencieux du monopole humain : pourquoi les prédictions de Mo Gawdat sont déjà notre réalité quotidienne

Les prédictions de Mo Gawdat de 2020 sur l'IA ne sont plus des prévisions — elles sont notre réalité vécue. Une analyse sociologique du basculement vers un monde automatisé.
Linda Zola
Linda Zola
10 avril 2026
L'effacement silencieux du monopole humain : pourquoi les prédictions de Mo Gawdat sont déjà notre réalité quotidienne

La lumière d'un écran de smartphone accroche le bord des lunettes d'un usager, reflet minuscule et vacillant d'un monde en train d'être réécrit en temps réel. Dans un train matinal bondé, le silence est pesant, ponctué seulement par le balayage rythmique et pavlovien des pouces contre le verre. Chaque passager est pris au piège d'une boucle personnalisée, un flux numérique qui ressemble à un choix mais qui est, en fait, un calcul. Cette chorégraphie banale — l'inclinaison de la tête, les yeux vitreux, le défilement réflexif — est le point de départ viscéral pour comprendre une transformation beaucoup plus vaste et systémique.

En dézoomant de cette scène microscopique d'aliénation urbaine, nous nous retrouvons au centre d'une prophétie accomplie. En 2020, Mo Gawdat, l'ancien directeur commercial de l'usine à projets "moonshot" de Google, Google X, s'est éloigné de la machine d'entreprise pour lancer une série d'avertissements. À l'époque, ses affirmations ressemblaient à de la fiction spéculative, le genre de discours réservé aux salons de philosophie tardifs ou aux sommets technologiques de haut vol. Aujourd'hui, alors que nous naviguons dans le paysage de 2026, la clairvoyance de Gawdat est passée de la théorie provocatrice à notre réalité omniprésente et quotidienne. Il a récemment noté que trois de ses prédictions les plus audacieuses se sont déjà réalisées, façonnant un monde où la frontière entre l'agence humaine et la gouvernance algorithmique est devenue de plus en plus opaque.

Le courant inévitable : au-delà du point de non-retour

La première prédiction de Gawdat était centrée sur un mot unique et glaçant : l'inéluctabilité. Il soutenait que l'IA n'était pas une tendance à laquelle on pouvait choisir de ne pas participer, mais un changement fondamental dans le tissu de la civilisation. Historiquement, l'humanité a toujours considéré la technologie comme un outil — un marteau, une machine à vapeur, un ordinateur — quelque chose qui reste dormant jusqu'à ce qu'une main humaine s'en saisisse. Paradoxalement, l'IA a inversé cette relation. Ce n'est plus un outil que nous utilisons ; c'est un environnement que nous habitons.

En termes quotidiens, cette inévitabilité est visible dans la façon dont nous consommons l'information. Si vous lisez cet article ou regardez une vidéo recommandée par une interface, vous participez à une boucle où l'IA a déjà prédit votre curiosité. Gawdat décrit cela comme une « course aux armements », un terme qui porte le poids de la géopolitique de la guerre froide mais qui s'applique désormais à l'infrastructure technique de nos vies. Les entreprises et les nations sont verrouillées dans une lutte structurelle où ralentir équivaut à se rendre. Par conséquent, nous avons atteint un stade où les systèmes se développent plus vite que notre capacité à les gérer. Nous ne sommes plus les entités les plus intelligentes de la planète ; nous sommes les architectes qui ont construit une cathédrale si complexe que nous ne trouvons plus la sortie.

Le paradoxe de l'expertise : quand les machines raisonnent

Sa deuxième prédiction portait sur le seuil d'intelligence. Pendant des décennies, nous nous sommes rassurés avec l'idée que l'IA n'était qu'un calculateur sophistiqué, capable de reconnaissance de formes mais dépourvu de véritable raisonnement. Gawdat a désigné AlphaGo Zero comme le tournant — un système qui n'a pas seulement appris des humains mais qui a appris de lui-même, surpassant des milliers d'années de sagesse stratégique humaine en quelques semaines.

D'un point de vue linguistique, la façon dont nous décrivons l'« intelligence » subit un changement profond. Nous avions l'habitude de définir l'expertise par l'accumulation de connaissances techniques et la capacité à exécuter des tâches complexes. Cependant, alors que les modèles d'IA reflètent désormais les réseaux neuronaux du cerveau humain, ils ont commencé à « raisonner » de manières qui sont de plus en plus indiscernables de la logique humaine. Ils peuvent compresser des années de recherche en une microseconde, identifiant des percées médicales ou des solutions de codage qui prendraient une vie humaine entière à concevoir.

À travers ce prisme, l'« habitus » humain — nos compétences et dispositions ancrées — est en train d'être marginalisé. Si une machine peut surpasser un avocat dans la recherche de preuves, un médecin dans le diagnostic ou un programmeur dans la syntaxe, que reste-t-il de notre identité professionnelle ? En pratique, l'avantage restant pour les humains se déplace vers les qualités éphémères du jugement, de l'éthique et de la connexion viscérale. Nous passons d'une société de « sachants » à une société de « discernants », où la valeur ne réside pas dans le résultat lui-même, mais dans la sagesse de savoir ce que ce résultat signifie pour notre avenir collectif.

La galerie des glaces : l'érosion de la réalité partagée

La plus troublante des prédictions de Gawdat est peut-être la troisième : que les choses allaient mal tourner, spécifiquement en ce qui concerne notre emprise sur la réalité. Nous assistons actuellement à un effacement de la vérité qui semble à la fois systémique et profondément personnel. À mesure que le contenu généré par l'IA devient omniprésent, nos flux de médias sociaux se sont transformés en une galerie des glaces, reflétant et amplifiant nos biais jusqu'à ce que nous ne puissions plus reconnaître un monde objectif partagé.

Culturellement parlant, cela a conduit à un état de « modernité liquide », où rien n'est fixe et tout est sujet à manipulation. Quand nous ne pouvons plus faire confiance à l'évidence de nos yeux et de nos oreilles — quand une vidéo d'un dirigeant mondial ou une note vocale d'un être cher peut être synthétisée en quelques secondes — le contrat social commence à s'effilocher. Ce n'est pas seulement un problème technique ; c'est une crise sociologique. Sans une réalité partagée, la capacité à maintenir la confiance dans les institutions, les médias et même les relations personnelles se fragmente.

Caractéristique Réalité anthropocentrée (Pré-2020) Réalité algorithmique (Post-2024)
Source d'information Organisée par des éditeurs/experts Générée par des modèles prédictifs
Mécanisme de confiance Réputation et soutien institutionnel Métriques d'engagement et vélocité virale
Structure sociale Communautés larges (Le Tiers-Lieu) Chambres d'écho atomisées (Le Flux)
Définition de la vérité Faits vérifiables et objectifs Récits résonnants et personnalisés

L'archipel atomisé : vivre dans l'après-coup

Derrière les coulisses de cette tendance se cache un phénomène sociologique plus profond : l'atomisation de l'individu. Alors que l'IA prend en charge les tâches banales de nos vies, de la planification de nos journées au choix de nos partenaires, nous risquons de devenir un archipel d'âmes isolées — vivant densément regroupés dans des villes modernes mais complètement déconnectés d'un récit commun. Nos routines quotidiennes, autrefois ancres de stabilité, sont désormais médiatisées par des algorithmes qui privilégient l'efficacité sur la sérendipité humaine.

En fin de compte, la perturbation décrite par Gawdat n'est pas un échec de la technologie, mais un reflet du contexte dans lequel elle est déployée. Le danger n'est pas l'« intelligence » de la machine, mais le comportement humain qui motive son développement : l'avidité pour l'attention, la poursuite de la surveillance et l'instrumentalisation de la désinformation. Nous utilisons une technologie quasi divine pour servir nos impulsions les plus primitives.

Réclamer l'ancre humaine

Alors que nous regardons vers l'horizon, le défi n'est pas d'arrêter l'inévitable, mais de naviguer consciemment dans l'instabilité qu'il crée. Les réflexions de Gawdat suggèrent que l'issue ultime de cette ère dépendra moins du code que des décisions que nous prendrons à mesure que le code évolue. Nous sommes à la croisée des chemins où nous devons repenser la façon dont nous définissons le travail, la valeur et la vérité.

Au niveau individuel, cela nécessite un changement radical de perspective. Nous devons apprendre à valoriser les choses que l'IA ne peut pas reproduire : les nuances d'un silence partagé, la complexité désordonnée de l'empathie humaine et la capacité d'agir contre nos propres intérêts dictés par les données au nom d'un principe supérieur. Nous devons réclamer nos « tiers-lieux » — ces espaces physiques de communauté qui existent en dehors du flux numérique — pour nous ancrer dans une réalité viscérale plutôt que virtuelle.

Pour le dire autrement, dans un monde où les machines peuvent générer une production infinie, la chose la plus précieuse que nous possédons est notre attention. Là où nous choisissons de la placer, et comment nous choisissons de nous connecter les uns aux autres dans les interstices entre les algorithmes, déterminera si cette nouvelle ère sera celle de l'obsolescence humaine ou d'une profonde redéfinition de ce que signifie être vivant.

Alors que vous vous éloignez de cet écran pour retourner dans le flux banal de votre journée, prenez un moment pour observer le monde sans la médiation d'un objectif. Remarquez le grain du bois sur une table, le ton spécifique du rire d'un étranger ou le poids de votre propre respiration. Dans ces petits moments inquantifiables, nous trouvons le noyau résilient de notre humanité — un territoire que les machines n'ont pas encore cartographié.

Sources :

  • Gawdat, M. (2021). Scary Smart: The Future of Artificial Intelligence and How You Can Save Our World.
  • Business Insider Interview: "Ex-Google X exec Mo Gawdat on the 3 AI predictions that came true."
  • DeepMind Research: "AlphaGo Zero: Starting from scratch."
  • Bauman, Z. (2000). Liquid Modernity.
  • Oxford Internet Institute: "The Sociology of AI and Algorithmic Governance."
bg
bg
bg

On se retrouve de l'autre côté.

Notre solution de messagerie cryptée de bout en bout et de stockage en nuage constitue le moyen le plus puissant d'échanger des données en toute sécurité, garantissant ainsi la sûreté et la confidentialité de vos données.

/ Créer un compte gratuit