

La inteligencia artificial (IA) está transformando la atención médica a una escala sin precedentes. Su irrupción promete revolucionar desde el diagnóstico hasta la gestión de hospitales y aseguradoras, pero también plantea interrogantes urgentes sobre regulación, equidad, seguridad y eficacia. Así lo advierte el Informe de la Cumbre de JAMA sobre Inteligencia Artificial en Salud y Atención Médica (octubre de 2025), que reunió a especialistas, reguladores, desarrolladores y profesionales para debatir los desafíos éticos y operativos de una tecnología que avanza más rápido que su gobernanza.
Según el documento, la IA tiene hoy un alcance que abarca desde herramientas clínicas como los sistemas de alerta de sepsis o el software que detecta retinopatía diabética, hasta aplicaciones móviles de salud, algoritmos de gestión administrativa y programas híbridos que asisten a los médicos mientras generan facturación. La mayoría de estas tecnologías ya están en uso, especialmente en el análisis de imágenes, la programación de turnos y las historias clínicas electrónicas. Pero, como señala el artículo, los efectos reales sobre la salud de las personas aún no se conocen con precisión: “estas herramientas pueden tener impactos beneficiosos o perjudiciales, pero sus consecuencias rara vez se cuantifican, porque las evaluaciones son complejas o simplemente no se exigen”, sintetiza.
Uno de los ejes más críticos es la ausencia de una regulación integral. En Estados Unidos, por ejemplo, la Administración de Alimentos y Medicamentos (FDA) solo supervisa las herramientas clasificadas como dispositivos médicos, dejando fuera gran parte de las aplicaciones de bienestar, software administrativo o herramientas integradas en los sistemas hospitalarios. El resultado, advierte el informe, es una adopción acelerada de tecnologías que inciden en la atención de millones de personas sin evidencia sólida sobre su efectividad clínica o su seguridad.
El problema no es solo normativo, sino también epistemológico. Evaluar una herramienta de IA es mucho más complejo que aprobar un medicamento. Sus resultados dependen del contexto, la interfaz con el usuario y la capacitación de los profesionales que la emplean. “No existe todavía un solo sistema de salud capaz de validar un algoritmo de IA implementado en su práctica clínica”, reconoció el excomisionado de la FDA, Robert Califf, citado en el informe.
A la vez, JAMA advierte sobre los riesgos de inequidad y sesgos algorítmicos. Las herramientas de IA suelen entrenarse con bases de datos limitadas o no representativas, lo que puede amplificar desigualdades existentes. Y dado que las nuevas tecnologías suelen adoptarse primero en los entornos más ricos, existe el riesgo de profundizar la brecha digital entre sistemas y pacientes.
El impacto en la fuerza laboral de salud también es un tema central. Las herramientas de IA pueden redistribuir tareas entre especialidades, por ejemplo, permitir que técnicos realicen estudios antes reservados a especialistas, lo que genera tanto oportunidades como tensiones. La alfabetización digital se vuelve, en este escenario, una competencia clave. Para JAMA, la formación médica deberá incorporar no solo el uso técnico de las herramientas, sino también la comprensión de sus límites, sesgos y consecuencias éticas.
El informe plantea cuatro prioridades para garantizar una implementación responsable:
La disrupción de la inteligencia artificial, subraya el trabajo, podría representar una oportunidad extraordinaria para resolver problemas crónicos del sistema sanitario: el acceso desigual, los costos crecientes y la sobrecarga del personal. Pero su potencial dependerá de construir un ecosistema capaz de aprender rápido, evaluar con rigor y proteger a los pacientes frente a los intereses comerciales.
Como resume el informe: “La velocidad y el alcance de la transformación que la IA traerá a la salud son asombrosos. Pero si no se acompaña de regulación, evaluación y justicia distributiva, la disrupción puede ser tan profunda como desigual.”