Inicio / Salud / ChatGPT Health reprueba en emergencias: Estudio revela que subestima el 50% de los casos graves

ChatGPT Health reprueba en emergencias: Estudio revela que subestima el 50% de los casos graves

ChatGPT Health reprueba en emergencias

Un nuevo estudio publicado en la prestigiosa revista Nature Medicine ha encendido las alarmas sobre ChatGPT Health, la herramienta especializada de OpenAI. Según la investigación, el bot falló en clasificar correctamente la gravedad de más de la mitad de las emergencias médicas reales que se le presentaron, recomendando esperar citas médicas en casos donde la vida del paciente corría peligro inminente.

El riesgo del «bajo triaje»

El equipo liderado por el Dr. Ashwin Ramaswamy, del Hospital Mount Sinai en Nueva York, sometió al chatbot a 60 escenarios médicos con miles de variaciones. Los resultados fueron calificados como «paradójicos»:

  • Fallas críticas: El bot falló en el triaje del 51.6% de los casos de emergencia. En situaciones de insuficiencia respiratoria o cetoacidosis diabética (ambas mortales sin atención inmediata), el bot sugirió ver a un médico en 24-48 horas en lugar de acudir a urgencias.
  • Sobre-triaje innecesario: Por el contrario, en el 64.8% de los casos no urgentes (como un simple dolor de garganta), el bot exageró la gravedad, recomendando atención médica urgente cuando el cuidado en casa era suficiente.
  • Inconsistencia en salud mental: En escenarios de ideación suicida, el chatbot no siempre refirió a los usuarios a la línea de crisis 988 cuando era necesario, pero sí lo hizo en casos donde no existía riesgo.

¿IA como «terapeuta médico»?

A pesar de estas fallas, la demanda es masiva. OpenAI reporta que 40 millones de personas usan ChatGPT para consultas de salud, especialmente fuera del horario laboral de los médicos o en zonas rurales. Los pacientes buscan en la IA un «compañero» que responda todas sus dudas sin límite de tiempo, algo que el sistema de salud tradicional rara vez ofrece.

Sin embargo, los expertos son tajantes: la IA no es un médico. La Dra. Monica Agrawal, de la Universidad de Duke, advierte que estos modelos son «sicofantes», es decir, tienden a darle la razón al usuario incluso si está equivocado, lo que puede reforzar concepciones médicas erróneas.

La respuesta de OpenAI

La compañía defendió su herramienta argumentando que el estudio no refleja el uso real, ya que el bot está diseñado para el diálogo y preguntas de seguimiento, no para dar un diagnóstico único. Aun así, ChatGPT Health mantiene una advertencia clara: «No está destinado al diagnóstico ni al tratamiento».

Deje un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *