Contenido creado por Sin autor
Salud

Por The New York Times

¿Un misterio en la sala de urgencias? Pide el diagnóstico al doctor Chatbot

Ahora pueden pedir ayuda a un experto para llegar a un diagnóstico: GPT-4, la última versión de un chatbot lanzado por la empresa OpenAI.

26.07.2023 12:11

Lectura: 6'

2023-07-26T12:11:00-03:00
Compartir en

Por The New York Times | Gina Kolata

BOSTON — La paciente era una mujer de 39 años que había llegado al departamento de urgencias del Centro Médico Beth Israel Deaconess de Boston. Hacía varios días que le dolía la rodilla izquierda. Un día antes, había tenido una fiebre de 38 grados Celsius. La fiebre había desaparecido, pero seguía teniendo escalofríos. La rodilla estaba roja e inflamada.

¿Cuál era el diagnóstico?

Un viernes caluroso, Megan Landon, residente de medicina, planteó este caso real a una sala llena de residentes y estudiantes de Medicina. Estaban reunidos para aprender una habilidad que puede ser tremendamente difícil de enseñar: cómo pensar como médico.

“Los médicos somos bastante malos para enseñarles a otros médicos cómo pensamos”, comentó Adam Rodman, médico internista, historiador médico y organizador del evento en el hospital Beth Israel Deaconess.

Sin embargo, ahora pueden pedir ayuda a un experto para llegar a un diagnóstico: GPT-4, la última versión de un chatbot lanzado por la empresa OpenAI.

La inteligencia artificial está transformando muchos aspectos de la práctica de la medicina y algunos profesionales de la salud recurren a estas herramientas para que les ayuden a llegar a un diagnóstico. Los médicos del Beth Israel Deaconess, un hospital de enseñanza afiliado con la Facultad de Medicina de la Universidad de Harvard, decidieron explorar cómo se pueden usar, bien y mal, los chatbots para capacitar a los futuros médicos.

Los instructores como Rodman esperan que los estudiantes de Medicina puedan convertir a GPT-4 y a otros chatbots en algo parecido a lo que los médicos llaman una consulta informal entre colegas, que es cuando conversan con un colega y le piden una opinión sobre un caso difícil. La idea es utilizar un chatbot tal como los médicos se consultan entre sí para pedir sugerencias y opiniones.

Desde hace más de un siglo, nos han dicho que los médicos son como detectives que reúnen pistas y las usan para encontrar al culpable. Pero los médicos experimentados recurren a un método distinto para averiguar qué está mal: el reconocimiento de patrones. En medicina, se denomina guion de enfermedad y se refiere a los signos, síntomas y resultados de pruebas que los médicos reúnen para contar una historia coherente basada en casos similares que conocen o han visto ellos mismos.

Rodman explicó que si el guion de enfermedad no ayuda, los médicos recurren a otras estrategias, como asignar probabilidades a varios diagnósticos que pudieran encajar.

Los investigadores llevan más de medio siglo intentando diseñar programas informáticos para realizar diagnósticos médicos, pero no han tenido éxito hasta ahora.

Los médicos afirman que GPT-4 es diferente. “Creará algo bastante parecido al guion de enfermedad”, comentó Rodman. En ese sentido, añadió, “es totalmente diferente a un motor de búsqueda”.

Rodman y otros médicos del hospital Beth Israel Deaconess consultaron a GPT-4 para que proporcionara posibles diagnósticos en casos difíciles. En un estudio que se dio a conocer el mes pasado en la revista médica JAMA, encontraron que lo hacía mejor que la mayoría de los médicos que participaban en desafíos diagnósticos que se publicaron en The New England Journal of Medicine.

Sin embargo, descubrieron que el uso del programa es un arte y que tiene sus inconvenientes.

Christopher Smith, director del programa de residencia de Medicina del centro médico, explicó que los estudiantes y los residentes de Medicina “sin duda lo están usando”, pero agregó que “aún no se puede afirmar que están aprendiendo algo”.

La preocupación es que pudieran depender de una inteligencia artificial para llegar a un diagnóstico como hacemos con la calculadora del teléfono para resolver un problema matemático. Smith considera que eso es un peligro.

Para él, el aprendizaje consiste en tratar de entender algo: “Así es como retenemos. Parte del aprendizaje es la lucha. Si externalizas el aprendizaje a GPT, esa lucha desaparece”.

En la reunión, estudiantes y residentes se dividieron en grupos e intentaron averiguar qué le pasaba a la paciente de la rodilla inflamada. Luego, recurrieron a GPT-4.

Los grupos pusieron en práctica varias estrategias.

Uno usó GPT-4 para hacer una búsqueda en internet, de forma similar a como se utiliza Google. El chatbot proporcionó una lista de posibles diagnósticos, incluido un traumatismo. Pero cuando los miembros del grupo le pidieron que explicara su razonamiento, la explicación del bot fue decepcionante, ya que dijo: “El traumatismo es una causa común de lesión de rodilla”.

Otro grupo, pensó en posibles hipótesis y le pidió a GPT-4 que las corroborara. La lista del chatbot coincidía con la del grupo: infecciones, incluida la enfermedad de Lyme; artritis, incluida la gota, un tipo de artritis que implica cristales en las articulaciones, y traumatismos.

GPT-4 añadió la artritis reumatoide a las principales posibilidades, aunque no ocupaba un lugar destacado en la lista del grupo. Después, los instructores descartaron la gota, ya que la paciente era joven y mujer. Y tal vez pudiera descartarse la artritis reumatoide porque solo se había inflamado una articulación durante un par de días.

Como consulta informal, GPT-4 pareció pasar la prueba o, al menos, coincidir con los estudiantes y residentes. Pero, en este ejercicio, no ahondaba ni daba un guion de enfermedad.

Esto podría deberse a que los estudiantes y residentes usaron el bot más como un motor de búsqueda que como una consulta informal entre colegas.

Los instructores explicaron que para usar el bot de manera correcta, tendrían que haber empezado por decirle a GPT-4 algo así: “Eres un médico que atiende a una mujer de 39 años con dolor en la rodilla”. A continuación, tendrían que enumerar sus síntomas antes de pedir un diagnóstico y hacer preguntas sobre el razonamiento del bot, del mismo modo que lo harían con un colega médico.

Los instructores afirmaron que esa sería una forma de aprovechar el poder de GPT-4. Pero también es fundamental reconocer que los chatbots pueden equivocarse y “alucinar”; es decir, dar respuestas sin fundamento. Utilizarlos exige saber cuándo se equivoca.

“No está mal usar estas herramientas”, afirmó Byron Crowe, médico internista del hospital. “Solo hay que usarlas de la manera correcta”. Al terminar la sesión, los instructores revelaron el verdadero motivo de la inflamación de la rodilla.

Resultó ser una posibilidad que todos los grupos habían considerado y que GPT-4 había propuesto.

Tenía la enfermedad de Lyme. Un médico familiar en Hermitage, Pensilvania, utiliza inteligencia artificial para elaborar un resumen de la visita de un paciente. En poco tiempo, se podría utilizar la inteligencia artificial para diagnosticar enfermedades. (Maddie McGarvey/The New York Times)