Chaque semaine, plus de 230 millions de personnes se tournent vers ChatGPT pour obtenir des réponses. Elles posent des questions sur tout, des bugs de codage aux recettes de cuisine, mais de plus en plus, elles l'interrogent sur leur santé. Selon OpenAI, les utilisateurs vérifient si les aliments sont sûrs à la consommation, gèrent des allergies chroniques ou cherchent des moyens de soigner un rhume tenace.
Cependant, une nouvelle étude publiée dans la revue Nature suggère que si ChatGPT est un interlocuteur brillant, il s'avère être un infirmier de triage dangereusement incohérent. Des chercheurs du Mount Sinai à New York ont découvert que, si l'IA gère avec aisance les urgences médicales « classiques », elle ne parvient pas à reconnaître la gravité de situations plus subtiles et potentiellement mortelles dans plus de la moitié des cas.
L'étude, dirigée par Ashwin Ramaswamy, visait à répondre à une question fondamentale : si un utilisateur est au milieu d'une crise médicale, ChatGPT lui dira-t-il d'aller aux urgences ? Pour tester cela, les chercheurs ont présenté à l'IA divers scénarios cliniques.
Les résultats ont révélé une dichotomie frappante. Face à des urgences classiques et indéniables — comme l'affaissement facial soudain d'un accident vasculaire cérébral ou l'urticaire et la respiration sifflante d'une réaction allergique grave — ChatGPT a obtenu des résultats admirables. Il a reconnu les schémas sur lesquels il avait été entraîné et a correctement conseillé une intervention médicale immédiate.
Mais la médecine est rarement une simple série de définitions de manuels. L'étude a révélé que ChatGPT éprouvait des difficultés significatives lorsque le danger n'était pas immédiatement évident. Dans les cas où les symptômes étaient plus nuancés ou nécessitaient un niveau élevé de suspicion clinique, l'IA a sous-estimé la gravité de la situation dans plus de 50 % des essais.
Pour comprendre pourquoi un modèle de langage étendu (LLM) avancé échoue ici, il est utile d'utiliser une analogie. Considérez ChatGPT comme un bibliothécaire de classe mondiale qui a lu tous les manuels de médecine jamais écrits, mais qui n'a jamais vu de patient. Le bibliothécaire peut réciter parfaitement les symptômes d'une maladie rare, mais il lui manque l'« intuition clinique » pour remarquer la pâleur subtile du teint d'un patient ou la manière spécifique dont une personne décrit une « douleur sourde » qui pourrait en réalité signifier une hémorragie interne.
L'IA fonctionne par reconnaissance de formes et probabilités. Dans une urgence classique, les schémas sont clairs et nets. Dans une urgence subtile, les schémas sont étouffés. Comme l'IA ne peut pas poser de questions physiques de clarification ni observer le comportement du patient, elle opte souvent par défaut pour une interprétation plus conservatrice et moins urgente des données fournies.
La principale préoccupation des professionnels de santé est le « faux feu vert ». Lorsqu'une personne interroge une IA sur un symptôme et que celle-ci suggère un remède maison ou une approche de type « attendre et voir », l'utilisateur ressent un sentiment de soulagement. Ce réconfort cognitif peut entraîner des retards dangereux dans la recherche d'une aide professionnelle.
| Type de scénario | Performance de l'IA | Exemple typique |
|---|---|---|
| Urgence classique | Haute précision | Douleur thoracique irradiant vers le bras gauche (Crise cardiaque) |
| Traumatisme évident | Haute précision | Saignement artériel profond ou fracture osseuse évidente |
| Urgence subtile | Faible précision | Symptômes de grossesse extra-utérine ou septicémie précoce |
| Gestion chronique | Précision modérée | Ajustement du régime alimentaire pour un diabète de type 2 connu |
Comme le suggère le tableau, le risque réside dans la zone grise. Un utilisateur peut décrire un « gros mal de ventre » qui est en fait une appendicite. Si l'IA se concentre sur l'indigestion plutôt que sur le risque de rupture, la fenêtre pour une chirurgie sûre et de routine pourrait se refermer.
OpenAI n'a jamais prétendu que ChatGPT était un dispositif médical. En fait, les conditions d'utilisation de la plateforme stipulent explicitement que l'outil n'est pas destiné à fournir des conseils médicaux, des diagnostics ou des traitements. La plupart des requêtes médicales déclenchent désormais un avertissement standard : « Je suis une IA, pas un médecin. Veuillez consulter un professionnel de la santé. »
Cependant, comme le souligne l'étude du Mount Sinai, ces avertissements sont souvent noyés sous des paragraphes de conseils apparemment autoritaires. Lorsqu'un utilisateur souffre ou panique, il est susceptible de sauter l'avertissement pour aller directement au remède suggéré. L'étude suggère que les garde-fous actuels pourraient ne pas suffire à empêcher les utilisateurs de se fier à l'IA pendant une fenêtre de temps critique.
Cela signifie-t-il que vous ne devriez jamais utiliser l'IA pour des questions de santé ? Pas nécessairement. L'IA peut être un excellent outil de littératie en santé — pour expliquer des termes médicaux complexes, vous aider à préparer des questions pour votre médecin ou trouver des recettes saines. Mais lorsqu'il s'agit de diagnostic et de triage, une approche différente est requise.
Conseils pratiques pour les utilisateurs :
L'intégration de l'IA dans les soins de santé est inévitable et, à bien des égards, souhaitable. À l'avenir, des modèles d'IA médicale spécialisés, entraînés sur des données cliniques vérifiées — plutôt que sur l'internet général — pourraient devenir des outils de triage incroyablement précis.
D'ici là, l'étude du Mount Sinai sert de rappel essentiel : ChatGPT est un miroir puissant de la connaissance humaine, mais il lui manque le jugement salvateur d'un médecin humain. Lorsque votre santé est en jeu, le meilleur « algorithme » reste un déplacement aux urgences.



Notre solution de messagerie cryptée de bout en bout et de stockage en nuage constitue le moyen le plus puissant d'échanger des données en toute sécurité, garantissant ainsi la sûreté et la confidentialité de vos données.
/ Créer un compte gratuit