¿Confiaría su salud a largo plazo a un médico que no existe, o a un profesional médico cuya foto de perfil fue generada por un comando de texto en lugar de una facultad de medicina? Esta no es una pregunta hipotética de una novela distópica; es la tensión central que rodea a Medvi, una startup de telemedicina impulsada por IA que recientemente ha saltado a la luz pública. Con solo dos empleados a tiempo completo, la empresa supuestamente generó 401 millones de dólares en negocios el año pasado y actualmente proyecta unas asombrosas ventas de 1.800 millones de dólares para 2026.
Sobre el papel, Medvi representa una fuerza disruptiva en el panorama farmacéutico, utilizando un modelo ágil y automatizado para distribuir fármacos para la pérdida de peso y tratamientos para mejorar el rendimiento. No obstante, una mirada más profunda bajo el capó revela una base precaria construida sobre una red de comercializadores afiliados y personajes generados por IA que desafían nuestras definiciones fundamentales de confianza médica.
En la práctica, el crecimiento explosivo de Medvi no se ha alimentado únicamente de la construcción de marca tradicional. En su lugar, la empresa depende en gran medida de una red polifacética de comercializadores afiliados. El fundador Matthew Gallagher señaló que aproximadamente el 30% de la publicidad de la empresa fluye a través de estos socios externos. Si bien el marketing de afiliados es una herramienta estándar para escalar productos digitales, en el contexto de la atención médica, a menudo se asemeja al lejano oeste.
Una investigación reciente en la biblioteca de anuncios de Meta descubrió una serie de campañas sofisticadas pero engañosas. Estos anuncios presentaban a personas presentadas como doctores en medicina, como el "Dr. Matthew Anderson MD" y el "Dr. Spencer Langford MD". Curiosamente, estos perfiles eran a menudo fantasmas digitales. Una cuenta incluía un número de teléfono de Angola y anteriormente había pertenecido a un músico de gospel; otra estaba vinculada a una tienda de ropa en la República del Congo.
Dicho de otro modo, los "médicos" que recomiendan su próxima receta podrían ser en realidad los restos digitales reutilizados de una cuenta de redes sociales desaparecida, vestidos con una bata blanca generada por IA. Estos anuncios contenían con frecuencia signos reveladores de su origen sintético, incluyendo texto confuso e inconsistencias anatómicas comunes en la generación de imágenes por IA de etapas tempranas. Algunos incluso presentaban marcas de agua visibles de la IA Gemini de Google, lo que sugiere un nivel de supervisión que era, en el mejor de los casos, negligente.
Como alguien que ha pasado años inmerso en el mundo del biohacking y la tecnología médica (MedTech), encuentro estas revelaciones particularmente inquietantes. Mi formación académica me enseñó a priorizar las fuentes primarias y los datos brutos sobre la apariencia pulida del comunicado de prensa de una startup. No me limito a creer en la palabra de una empresa; leo los artículos científicos subyacentes y los resultados de los ensayos clínicos.
En mi vida personal, trato mi cuerpo como un laboratorio. He usado monitores continuos de glucosa (MCG) durante meses para entender mi respuesta metabólica al estrés y he probado neuro-interfaces diseñadas para agudizar el enfoque. Para mí, la tecnología debe ser un ecosistema que extienda la vida humana activa, no una caja negra que oculte la verdad. Cuando permitimos que la IA alucine a los mismos expertos en los que confiamos para obtener asesoramiento médico, no solo estamos ante un fallo de marketing; estamos presenciando una ruptura del sistema inmunológico de la confianza pública.
Un caso específico destacó la naturaleza volátil de estas campañas. Un comercializador que utilizaba el nombre "Wade Frazer MD" eliminó rápidamente el título médico después de que los periodistas comenzaran a hacer preguntas. Curiosamente, la misma foto de perfil fue descubierta en otras tres páginas distintas, todas anunciando productos de Medvi. Esto sugiere un enfoque de engaño escalable y automatizado donde los "médicos" son tratados como activos intercambiables: servidores como ganado, no como mascotas.
Debido a esto, el volumen de anuncios fluctúa drásticamente. Cuando se puso el foco sobre estos perfiles generados por IA, el número de campañas publicitarias activas relacionadas con Medvi en las plataformas de Meta cayó en picado de más de 5.000 a aproximadamente 2.800 en un solo fin de semana. Esta rápida retracción indica que, si bien la empresa afirma tener una política sólida con respecto a las divulgaciones de IA, la aplicación de esas políticas ha sido reactiva en lugar de proactiva.
Gallagher ha declarado que Medvi mantiene una política clara en línea con las directrices de la Comisión Federal de Comercio (FTC), que exige la divulgación de cualquier representación de un médico mediante IA. En su opinión, la responsabilidad recae en los afiliados. Sin embargo, cuando la valoración de una empresa se construye sobre la base de tácticas de marketing tan innovadoras pero conflictivas, la línea entre la supervisión corporativa y el error del afiliado se desdibuja.
Esencialmente, Medvi está operando a una escala que supera sus recursos humanos internos. Con solo dos empleados gestionando un flujo de ingresos de mil millones de dólares, la dependencia de sistemas automatizados y actores externos es una necesidad, pero también es una vulnerabilidad. Históricamente, la FTC ha tenido una visión negativa de las afirmaciones de salud engañosas, y el uso de personajes sintéticos para vender sustancias reguladas como medicamentos para la pérdida de peso podría desencadenar una respuesta regulatoria que cambie el paradigma.
En una era en la que la IA puede generar un profesional médico convincente en segundos, la carga de la verificación se ha trasladado al consumidor. Si está considerando un servicio de telemedicina, tenga en cuenta esta lista de verificación para evitar caer en una alucinación digital:
La tecnología da lo mejor de sí cuando actúa como un puente, conectando a los pacientes con una atención que antes era inaccesible. Pero cuando la IA se utiliza para fabricar autoridad en lugar de facilitarla, el potencial innovador de la telemedicina se ve comprometido. Debemos exigir que las empresas de MedTech traten su presencia digital con el mismo rigor que aplican a sus cadenas de suministro farmacéutico.
A medida que avanzamos hacia un futuro de IA cada vez más sofisticada, debemos recordar que el objetivo es mejorar la salud humana, no solo optimizar un embudo de ventas. Si encuentra anuncios médicos que parezcan sospechosos o que presenten a profesionales generados por IA sin divulgación, infórmelo a la plataforma y a la FTC. Nuestra salud colectiva depende de un ecosistema digital arraigado en la realidad, no en uno poblado por fantasmas.
Fuentes:



Nuestra solución de correo electrónico cifrado y almacenamiento en la nube de extremo a extremo proporciona los medios más potentes para el intercambio seguro de datos, lo que garantiza la seguridad y la privacidad de sus datos.
/ Crear una cuenta gratuita