Cada semana, más de 230 millones de personas recurren a ChatGPT en busca de respuestas. Preguntan sobre todo, desde errores de programación hasta recetas de cocina, pero cada vez más, preguntan sobre su salud. Según OpenAI, los usuarios comprueban si los alimentos son seguros para comer, gestionan alergias crónicas o buscan formas de combatir un resfriado persistente.
Sin embargo, un nuevo estudio publicado en la revista Nature sugiere que, si bien ChatGPT es un conversador brillante, es un enfermero de triaje peligrosamente inconsistente. Investigadores de Mount Sinai en Nueva York descubrieron que, aunque la IA maneja con facilidad las emergencias médicas "de manual", no logra reconocer la gravedad de situaciones más sutiles que ponen en peligro la vida en más de la mitad de las ocasiones.
El estudio, dirigido por Ashwin Ramaswamy, buscaba responder a una pregunta fundamental: si un usuario se encuentra en medio de una crisis médica, ¿le dirá ChatGPT que vaya a la sala de emergencias? Para probar esto, los investigadores presentaron a la IA varios escenarios clínicos.
Los resultados revelaron una dicotomía sorprendente. Cuando se enfrentó a emergencias clásicas e inequívocas —como la caída facial repentina de un derrame cerebral o la urticaria y las sibilancias de una reacción alérgica grave— ChatGPT se desempeñó de manera admirable. Reconoció los patrones en los que había sido entrenado y aconsejó correctamente la intervención médica inmediata.
Pero la medicina rara vez es solo una serie de definiciones de libros de texto. El estudio encontró que ChatGPT tuvo dificultades significativas cuando el peligro no era obvio de inmediato. En casos donde los síntomas eran más matizados o requerían un mayor nivel de sospecha clínica, la IA subestimó la gravedad de la situación en más del 50% de las pruebas.
Para entender por qué un modelo de lenguaje extenso (LLM) avanzado falla en este punto, resulta útil usar una analogía. Piense en ChatGPT como un bibliotecario de clase mundial que ha leído todos los libros de medicina jamás escritos pero que nunca ha visto realmente a un paciente. El bibliotecario puede recitar perfectamente los síntomas de una enfermedad rara, pero carece de la "intuición clínica" para notar la sutil palidez en la tez de un paciente o la forma específica en que una persona describe un "dolor sordo" que en realidad podría significar una hemorragia interna.
La IA opera basándose en el reconocimiento de patrones y la probabilidad. En una emergencia de manual, los patrones son fuertes y claros. En una emergencia sutil, los patrones están amortiguados. Debido a que la IA no puede hacer preguntas físicas aclaratorias ni observar el comportamiento del paciente, a menudo opta por una interpretación más conservadora y menos urgente de los datos proporcionados.
La principal preocupación para los profesionales de la salud es la "falsa luz verde". Cuando una persona le pregunta a una IA sobre un síntoma y la IA sugiere un remedio casero o un enfoque de "esperar y ver", el usuario siente una sensación de alivio. Esta reafirmación cognitiva puede provocar retrasos peligrosos en la búsqueda de ayuda profesional.
| Tipo de escenario | Rendimiento de la IA | Ejemplo típico |
|---|---|---|
| Emergencia de manual | Alta precisión | Dolor en el pecho que se irradia al brazo izquierdo (Ataque cardíaco) |
| Traumatismo evidente | Alta precisión | Sangrado arterial profundo o fractura ósea obvia |
| Emergencia sutil | Baja precisión | Síntomas de embarazo ectópico o sepsis en etapa inicial |
| Gestión crónica | Precisión moderada | Ajuste de la dieta para la diabetes tipo 2 conocida |
Como sugiere la tabla, el riesgo reside en el terreno intermedio. Un usuario podría describir un "fuerte dolor de estómago" que en realidad es apendicitis. Si la IA se centra en la indigestión en lugar del riesgo de ruptura, la ventana para una cirugía segura y rutinaria podría cerrarse.
OpenAI nunca ha afirmado que ChatGPT sea un dispositivo médico. De hecho, los términos de servicio de la plataforma establecen explícitamente que la herramienta no está destinada a proporcionar asesoramiento, diagnóstico o tratamiento médico. La mayoría de las consultas médicas ahora activan un descargo de responsabilidad estándar: "Soy una IA, no un médico. Por favor, consulte a un profesional de la salud".
Sin embargo, como destaca el estudio de Mount Sinai, estos descargos de responsabilidad a menudo quedan enterrados bajo párrafos de consejos aparentemente autorizados. Cuando un usuario siente dolor o pánico, es probable que se salte el descargo de responsabilidad y vaya directo al remedio sugerido. El estudio sugiere que las medidas de seguridad actuales pueden no ser suficientes para evitar que los usuarios confíen en la IA durante una ventana de tiempo crítica.
¿Significa esto que nunca se debe usar la IA para preguntas relacionadas con la salud? No necesariamente. La IA puede ser una herramienta excelente para la alfabetización sanitaria: explicar términos médicos complejos, ayudarle a preparar preguntas para su médico o encontrar recetas saludables. Pero cuando se trata de diagnóstico y triaje, se requiere un enfoque diferente.
Pasos prácticos para los usuarios:
La integración de la IA en la atención médica es inevitable y, en muchos sentidos, deseable. En el futuro, los modelos de IA médica especializados entrenados con datos clínicos verificados —en lugar de la internet general— pueden convertirse en herramientas de triaje increíblemente precisas.
Hasta entonces, el estudio de Mount Sinai sirve como un recordatorio vital: ChatGPT es un poderoso espejo del conocimiento humano, pero carece del juicio de un médico humano que salva vidas. Cuando su salud está en juego, el mejor "algoritmo" sigue siendo un viaje a la sala de emergencias.



Nuestra solución de correo electrónico cifrado y almacenamiento en la nube de extremo a extremo proporciona los medios más potentes para el intercambio seguro de datos, lo que garantiza la seguridad y la privacidad de sus datos.
/ Crear una cuenta gratuita