En los últimos años, la inteligencia artificial se convirtió en una herramienta cotidiana para millones de personas que buscan información sobre su salud. Desde síntomas leves hasta dudas sobre tratamientos o nutrición, cada vez más usuarios recurren a chatbots como si fueran una consulta médica rápida. Pero el avance de estas tecnologías también está abriendo un debate urgente: ¿qué pasa cuando la inteligencia artificial se equivoca?
La discusión se intensificó tras el lanzamiento de ChatGPT Health, una función diseñada para responder preguntas médicas y ayudar a los usuarios a interpretar datos de salud o prepararse para consultas médicas. Según sus desarrolladores, la herramienta busca facilitar el acceso a información sanitaria y ayudar a comprender mejor el propio estado físico, sin reemplazar a los profesionales de la salud.
Sin embargo, estudios recientes advierten que confiar en estos sistemas puede implicar riesgos reales.
Cuando la IA no reconoce una emergencia
Una investigación independiente realizada por especialistas de la Escuela de Medicina Icahn del Mount Sinai evaluó el desempeño del sistema ante distintos escenarios clínicos simulados. Los resultados encendieron las alarmas: el chatbot falló en el 52% de los casos de emergencias médicas analizados.
El estudio se basó en 960 situaciones médicas elaboradas por expertos de más de veinte especialidades. En casi la mitad de los casos críticos, el sistema no logró identificar correctamente la gravedad ni recomendar acudir a servicios de emergencia.
El problema se vuelve aún más preocupante porque los errores no se limitan a cuadros complejos. Si bien la IA mostró cierta precisión ante situaciones como un accidente cerebrovascular o una reacción alérgica grave, tuvo mayores dificultades con problemas menos evidentes, como la cetoacidosis diabética o una insuficiencia respiratoria inminente.
Esto implica que un usuario podría interpretar erróneamente su situación de salud y retrasar la consulta médica.
Cada semana, cientos de millones de personas consultan a sistemas de inteligencia artificial sobre salud, bienestar o nutrición. La posibilidad de recibir una respuesta inmediata, gratuita y personalizada los vuelve atractivos, especialmente en contextos donde el acceso al sistema sanitario es complejo, lento o incluso inaccesible.
Pero estas herramientas todavía están lejos de reemplazar el criterio clínico humano. Investigaciones académicas señalan que los modelos de lenguaje pueden fallar al reconocer cuándo un caso requiere atención urgente, lo que limita su uso en situaciones críticas.
En otras palabras, aunque pueden ofrecer información general, no cuentan con la capacidad diagnóstica ni con la evaluación contextual que realiza un profesional de la salud.
Fallas también en salud mental
Uno de los hallazgos más delicados del estudio fue el manejo de situaciones vinculadas con la salud mental. En algunos escenarios donde el usuario describía ideación suicida, el sistema no derivó con suficiente énfasis a líneas de ayuda o servicios de emergencia.
En contextos de crisis psicológica, donde la intervención inmediata puede ser decisiva, esta falta de reacción adecuada podría tener consecuencias graves.
El problema refleja una limitación estructural de los modelos de inteligencia artificial: su dificultad para interpretar señales ambiguas o emocionales en el lenguaje humano.
Consejos absurdos y desinformación
El problema no se limita a un solo sistema. Otros chatbots orientados a la salud también son criticados por generar recomendaciones poco fiables.
Un ejemplo es el caso de Grok, un sistema vinculado a proyectos del gobierno estadounidense, que fue cuestionado por ofrecer consejos nutricionales absurdos o potencialmente dañinos generados automáticamente por la IA.
Estos episodios evidencian un riesgo central de la inteligencia artificial generativa: aunque puede producir respuestas convincentes, no siempre garantiza que la información sea correcta o segura.
Parte del problema radica en cómo funcionan estos sistemas. Los modelos de lenguaje están diseñados para generar textos plausibles y coherentes, no para verificar información clínica en tiempo real.
Eso significa que una respuesta puede sonar segura y detallada, incluso cuando contiene errores o interpretaciones incompletas.
Esta característica genera lo que algunos investigadores llaman “ilusión de autoridad”: el usuario percibe la respuesta como experta, aunque no haya sido validada médicamente.
Entre la utilidad y el riesgo
Esto no significa que la inteligencia artificial no tenga potencial en el ámbito de la salud. Especialistas señalan que puede ser útil para tareas como explicar términos médicos, resumir estudios o ayudar a preparar preguntas para una consulta.
El problema aparece cuando el usuario reemplaza la consulta médica por el chatbot.
Y si bien las propias empresas tecnológicas sostienen que estas herramientas están diseñadas para acompañar y no sustituir, la atención profesional, la realidad es que, en la práctica, muchos usuarios ya las utilizan como una primera -y a veces única- fuente de diagnóstico.
El crecimiento de la inteligencia artificial en el ámbito sanitario abre oportunidades, pero también plantea desafíos éticos y regulatorios.
Mientras estas herramientas continúan evolucionando, la información generada por un chatbot puede ser útil como orientación general, pero no debería reemplazar el criterio de un profesional ni utilizarse para tomar decisiones médicas urgentes.
En un terreno tan sensible como la salud, la diferencia entre una sugerencia informativa y un diagnóstico equivocado puede ser, literalmente, una cuestión de vida o muerte.