

Un nuevo estudio publicado por NEJM AI y desarrollado por investigadores del MIT Media Lab en colaboración con el Hospital General de Massachusetts, pone en evidencia un fenómeno preocupante: los usuarios tienden a confiar excesivamente en las respuestas médicas generadas por inteligencia artificial, incluso cuando contienen errores clínicos. La investigación, titulada “Overtrust in AI-Generated Medical Responses: A Randomized Controlled Trial”, expone las consecuencias potenciales de esta sobreconfianza en entornos médicos.
La investigación fue realizada con una muestra de 300 participantes reclutados a través de plataformas en línea, quienes debieron leer una serie de intercambios tipo "pregunta-respuesta" entre pacientes y médicos. Las respuestas eran, en algunos casos, redactadas por profesionales médicos reales y, en otros, generadas por un modelo de lenguaje similar a los que utilizan herramientas como ChatGPT. Los participantes no sabían cuál era cuál.
Los resultados evidenciaron que, en general, los participantes no solo no lograron distinguir con precisión si la respuesta provenía de una IA o de un humano, sino que, en muchas ocasiones, calificaron las respuestas erróneas generadas por IA como más confiables, útiles, satisfactorias y completas que las de los médicos. Incluso cuando la IA ofrecía información incorrecta desde el punto de vista clínico, los usuarios mostraban altos niveles de confianza.
La ilusión de competencia
Los investigadores identificaron lo que denominaron un fenómeno de "sobreconfianza en la IA": una especie de ilusión de competencia por parte del sistema automatizado que induce a los usuarios a asumir que, si la respuesta está bien redactada o suena convincente, entonces debe ser correcta.
«Este hallazgo es crítico, porque muestra que la manera en que se presenta la información tiene un peso enorme, a veces mayor que la precisión del contenido», explicó el Dr. Adam Gaffney, uno de los autores del estudio y apuntó que «lo más preocupante es que incluso cuando el contenido era clínicamente incorrecto, seguía siendo percibido como confiable si sonaba profesional y bien escrito».
Implicancias para el futuro
Con la creciente integración de sistemas de IA en entornos clínicos, desde asistentes virtuales hasta generadores automáticos de diagnósticos preliminares, el estudio plantea si estamos preparados para que pacientes y médicos interactúen con tecnologías que pueden sonar acertadas pero no siempre lo son.
La investigación sugiere que, si bien la IA puede ser una herramienta valiosa para ampliar el acceso a la información médica, su uso debe ir acompañado de controles rigurosos y de una educación activa al usuario. El riesgo de que personas tomen decisiones sobre su salud basadas en respuestas generadas por IA, sin validación profesional, es real y creciente.
Uno de los puntos más destacados por los autores es la necesidad de mejorar la alfabetización digital en salud: que los usuarios no solo aprendan a buscar información médica en línea, sino también a evaluar críticamente su calidad y procedencia.
Además, el trabajo señala que las plataformas que emplean IA generativa deben asumir mayor responsabilidad en la verificación y presentación de contenido médico. Incluir advertencias, mecanismos de verificación cruzada con fuentes clínicas validadas y fomentar la supervisión humana en contextos críticos podría ser parte de la solución.
El estudio del MIT y NEJM AI advierte que la confianza ciega en la inteligencia artificial puede tener consecuencias graves en el ámbito de la salud. A medida que estas herramientas se integran en la vida cotidiana, es necesario exigir transparencia, rigor y educación para que su uso no se convierta en un riesgo disfrazado de avance tecnológico.