Lectures fortes

La clinique fantôme à 1,8 milliard de dollars : au cœur du problème des médecins générés par IA chez Medvi

Medvi, une startup de télésanté avec 1,8 milliard de dollars de ventes prévues, fait l'objet d'un examen minutieux concernant des médecins générés par IA dans ses publicités. Innovation ou crise de confiance ?
La clinique fantôme à 1,8 milliard de dollars : au cœur du problème des médecins générés par IA chez Medvi

L'illusion d'échelle dans la santé numérique

Confieriez-vous votre santé à long terme à un médecin qui n'existe pas, ou à un professionnel de santé dont la photo de profil a été générée par une commande informatique plutôt que par une faculté de médecine ? Il ne s'agit pas d'une question hypothétique tirée d'un roman dystopique ; c'est la tension centrale entourant Medvi, une startup de télésanté propulsée par l'IA qui a récemment fait irruption sur le devant de la scène publique. Avec seulement deux employés à plein temps, l'entreprise aurait généré 401 millions de dollars de chiffre d'affaires l'année dernière et prévoit actuellement des ventes vertigineuses de 1,8 milliard de dollars pour 2026.

Sur le papier, Medvi représente une force de rupture dans le paysage pharmaceutique, utilisant un modèle automatisé et léger pour distribuer des médicaments de perte de poids et des traitements d'amélioration des performances. Néanmoins, un examen plus approfondi révèle des fondations précaires bâties sur un réseau de spécialistes du marketing d'affiliation et de personas générés par IA qui remettent en question nos définitions fondamentales de la confiance médicale.

Le Far West du marketing d'affiliation

En pratique, la croissance explosive de Medvi n'a pas été alimentée uniquement par la construction d'une marque traditionnelle. Au lieu de cela, l'entreprise s'appuie fortement sur un réseau multiforme d'affiliés. Le fondateur Matthew Gallagher a noté qu'environ 30 % de la publicité de l'entreprise passe par ces partenaires tiers. Bien que le marketing d'affiliation soit un outil standard pour faire évoluer les produits numériques, dans le contexte des soins de santé, il ressemble souvent au Far West.

Une enquête récente sur la bibliothèque publicitaire de Meta a mis au jour une série de campagnes sophistiquées mais trompeuses. Ces publicités présentaient des individus présentés comme des médecins, tels que le « Dr Matthew Anderson MD » et le « Dr Spencer Langford MD ». Curieusement, ces profils étaient souvent des fantômes numériques. Un compte affichait un numéro de téléphone d'Angola et appartenait auparavant à un musicien de gospel ; un autre était lié à un magasin de vêtements en République du Congo.

En d'autres termes, les « médecins » recommandant votre prochaine prescription pourraient en fait être les restes numériques recyclés d'un compte de réseau social défunt, habillés d'une blouse blanche générée par IA. Ces publicités contenaient souvent des signes révélateurs de leur origine synthétique, notamment du texte brouillé et des incohérences anatomiques courantes dans la génération d'images par IA de première génération. Certaines arboraient même des filigranes visibles de l'IA Gemini de Google, suggérant un niveau de surveillance qui était, au mieux, négligent.

Pourquoi l'intégrité des données m'importe

En tant que personne ayant passé des années immergée dans le monde du biohacking et de la MedTech, je trouve ces révélations particulièrement troublantes. Mon parcours académique m'a appris à privilégier les sources primaires et les données brutes plutôt que le vernis poli du communiqué de presse d'une startup. Je ne me contente pas de croire une entreprise sur parole ; je lis les articles scientifiques sous-jacents et les résultats des essais cliniques.

Dans ma vie personnelle, je traite mon corps comme un laboratoire. J'ai porté des moniteurs de glucose en continu (CGM) pendant des mois pour comprendre ma réponse métabolique au stress et testé des neuro-interfaces conçues pour affiner la concentration. Pour moi, la technologie devrait être un écosystème qui prolonge la durée de vie humaine active, et non une boîte noire qui obscurcit la vérité. Lorsque nous permettons à l'IA d'halluciner les experts mêmes sur lesquels nous comptons pour des conseils médicaux, nous ne sommes pas seulement face à un bug marketing ; nous assistons à une rupture du système immunitaire de la confiance publique.

L'anatomie d'un médecin synthétique

Un cas spécifique a mis en évidence la nature volatile de ces campagnes. Un spécialiste du marketing utilisant le nom de « Wade Frazer MD » a rapidement abandonné le titre médical après que des journalistes ont commencé à poser des questions. Curieusement, la même photo de profil a été découverte sur trois autres pages distinctes, faisant toutes la promotion des produits Medvi. Cela suggère une approche de la tromperie automatisée et évolutive où les « médecins » sont traités comme des actifs interchangeables — des serveurs considérés comme du bétail, et non comme des animaux de compagnie.

De ce fait, le volume de publicités fluctue énormément. Lorsque les projecteurs ont été braqués sur ces profils générés par IA, le nombre de campagnes publicitaires actives liées à Medvi sur les plateformes de Meta a chuté de plus de 5 000 à environ 2 800 en un seul week-end. Cette rétractation rapide indique que, bien que l'entreprise prétende avoir une politique robuste concernant la divulgation de l'IA, l'application de ces politiques a été réactive plutôt que proactive.

Friction réglementaire et FTC

Gallagher a déclaré que Medvi maintient une politique claire conforme aux directives de la Federal Trade Commission (FTC), exigeant une divulgation pour toute représentation d'un médecin par IA. Selon lui, la responsabilité incombe aux affiliés. Cependant, lorsqu'une valorisation d'entreprise est bâtie sur des tactiques de marketing aussi innovantes mais sources de friction, la frontière entre la surveillance de l'entreprise et l'erreur de l'affilié devient floue.

Essentiellement, Medvi opère à une échelle qui dépasse ses ressources humaines internes. Avec seulement deux employés gérant un flux de revenus d'un milliard de dollars, le recours à des systèmes automatisés et à des acteurs tiers est une nécessité, mais c'est aussi une vulnérabilité. La FTC a historiquement eu une vision très critique des allégations de santé trompeuses, et l'utilisation de personas synthétiques pour vendre des substances réglementées comme des médicaments de perte de poids pourrait déclencher une réponse réglementaire marquant un changement de paradigme.

Conseils pratiques pour le patient numérique

À une époque où l'IA peut générer un professionnel de santé convaincant en quelques secondes, la charge de la vérification s'est déplacée vers le consommateur. Si vous envisagez un service de télésanté, gardez cette liste de contrôle à l'esprit pour éviter de tomber dans le piège d'une hallucination numérique :

  • Vérifiez les diplômes : Ne prenez pas le suffixe « MD » pour argent comptant. Vérifiez si le médecin est licencié dans votre État via les annuaires officiels des conseils de l'ordre des médecins.
  • Cherchez les artefacts d'IA : Examinez les photos de profil pour y déceler des incohérences. Regardez l'arrière-plan, les mains et tout texte à l'intérieur de l'image. Si cela ressemble à un paysage onirique, c'est probablement le cas.
  • Vérifiez l'historique : Cliquez sur la section « À propos » des pages de réseaux sociaux. Si la page d'un médecin était un site de fans de musique gospel ou une boutique de détail congolaise il y a six mois, procédez avec une extrême prudence.
  • Exigez la transparence : Utilisez des plateformes qui indiquent clairement leur relation avec les prestataires et offrent un accès direct aux licences médicales et aux coordonnées.

Conclusion : La technologie comme outil, pas comme masque

La technologie est à son meilleur lorsqu'elle agit comme un pont, reliant les patients à des soins qui étaient auparavant inaccessibles. Mais lorsque l'IA est utilisée pour fabriquer de l'autorité plutôt que pour la faciliter, le potentiel d'innovation de la télésanté est compromis. Nous devons exiger que les entreprises de MedTech traitent leur présence numérique avec la même rigueur qu'elles appliquent à leurs chaînes d'approvisionnement pharmaceutiques.

Alors que nous nous dirigeons vers un avenir d'IA de plus en plus sophistiquée, nous devons nous rappeler que l'objectif est d'améliorer la santé humaine, pas seulement d'optimiser un tunnel de vente. Si vous rencontrez des publicités médicales qui semblent suspectes ou présentent des professionnels générés par IA sans divulgation, signalez-les à la plateforme et à la FTC. Notre santé collective dépend d'un écosystème numérique ancré dans la réalité, et non d'un écosystème peuplé de fantômes.

Sources :

  • The New York Times: Profile on Medvi and Matthew Gallagher.
  • Business Insider: Investigation into Medvi affiliate marketing and Meta ad library.
  • Meta Ad Library: Transparency data regarding Medvi campaigns.
  • Federal Trade Commission (FTC): Guidelines on AI disclosures and deceptive advertising.
bg
bg
bg

On se retrouve de l'autre côté.

Notre solution de messagerie cryptée de bout en bout et de stockage en nuage constitue le moyen le plus puissant d'échanger des données en toute sécurité, garantissant ainsi la sûreté et la confidentialité de vos données.

/ Créer un compte gratuit