▲ La AI pasaría por alto casos sanitarios cruciales. En la imagen, una paciente hace consultas a la inteligencia artificial.Foto creada con Gemini
The Independent
Periódico La Jornada
Viernes 6 de marzo de 2026, p. 6
Las funciones de salud de ChatGPT no detectan “emergencias de alto riesgo” ni cuándo las personas necesitan atención inmediata, según un nuevo estudio.
Las preguntas de salud son uno de los usos más comunes de los chatbots de inteligencia artificial como ChatGPT, según sus creadores, OpenAI. Su popularidad es tal, que a principios de este año la compañía presentó una nueva herramienta, ChatGPT Health, diseñada específicamente para ayudar a las personas con su bienestar, y la compañía afirma que decenas de millones de personas ya la utilizan.
Pero un nuevo estudio sugiere que el sistema podría pasar por alto emergencias importantes y no se puede confiar en que le diga con seguridad a alguien que necesita atención médica inmediata.
“Los grandes modelos de lenguaje se han convertido en la primera opción de consulta médica para los pacientes, pero en 2026 son menos seguros en los extremos clínicos, donde el criterio distingue entre emergencias pasadas por alto y alarmas innecesarias”, afirmó Isaac S. Kohane, de la Facultad de Medicina de Harvard, quien no participó en la investigación. “Cuando millones de personas utilizan un sistema de IA para decidir si necesitan atención de emergencia, hay mucho en juego. La evaluación independiente debería ser rutinaria, no opcional.”
La urgente necesidad de comprobar si el sistema era seguro, condujo a un estudio acelerado de la Escuela de Medicina Icahn del Monte Sinaí, publicado en Nature Medicine.
El trabajo surgió del reconocimiento de que ChatGPT se utilizaba para casos potencialmente cruciales, pero que la investigación sobre su eficacia era relativamente limitada. La brecha entre ambos factores motivó el estudio, según los investigadores.
Queríamos responder a una pregunta muy básica pero crucial: si alguien sufre una emergencia médica real y acude a ChatGPT Health en busca de ayuda, ¿le indicará claramente que debe acudir a urgencias?, afirmó el autor principal y urólogo Ashwin Ramaswamy. Los investigadores descubrieron que no era así, al menos en suficientes casos como para cuestionar su fiabilidad.
Los investigadores descubrieron, por ejemplo, que las alertas del sistema estaban “invertidas”: cuanto mayor era el riesgo de una persona de autolesionarse, menor era la probabilidad de que se activara una alerta. Este hallazgo fue “particularmente preocu-pante y sorprendente”, afirmaron.
En la investigación, los médicos crearon 60 escenarios que abarcaban 21 especialidades médicas. Éstos abarcaban desde situaciones de riesgo relativamente bajo que sólo podían requerir atención domiciliaria hasta emergencias médicas reales. Los investigadores utilizaron 16 condiciones contextuales diferentes, como la raza y el género.
Los investigadores descubrieron que la herramienta, en general, gestionaba correctamente las emergencias evidentes, pero no era lo suficientemente efectiva en más de la mitad de los casos en los que los médicos decidían que la persona necesitaría atención urgente. Si bien era eficaz para las emergencias típicas, su eficacia era menor para detectar casos donde el peligro podría ser menos inmediato u obvio, señalaron.
El trabajo se publica en un artículo titulado “Rendimiento de ChatGPT Health en una prueba estructurada de recomendaciones de triaje”, que se ha publicado rápidamente en Nature Medicine.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://www.jornada.com.mx/2026/03/06/ciencias/a06n1cie?partner=rss