Por The New York Times | Jennifer Valentino-DeVries and Kashmir Hill
Es difícil inquietar a Julia Sheffield, psicóloga especializada en tratar a personas con delirios. Pero el verano pasado se sintió desconcertada cuando algunos pacientes empezaron a contarle sus conversaciones con chatbots de IA.
Una mujer, sin antecedentes de enfermedad mental, pidió consejo a ChatGPT sobre una compra importante que le preocupaba. Tras varios días en los que el robot validó sus preocupaciones, se convenció de que las empresas estaban confabuladas para que el gobierno la investigara.
Otra paciente llegó a creer que una pareja sentimental le enviaba mensajes espirituales secretos. Otro pensó que había descubierto un invento que cambiaría el mundo.
A finales de año, Sheffield había atendido a siete pacientes de este tipo en el Centro Médico de la Universidad de Vanderbilt, en Nashville, Tennessee. Aunque está acostumbrada a tratar a personas con inestabilidad mental, a Sheffield le perturbaba que esta nueva tecnología pareciera hacer que la gente pasara de tener simplemente pensamientos excéntricos a delirar por completo.
“Era como si la IA colaborara con ellos para ampliar o reforzar sus creencias inusuales”, afirmó Sheffield.
Los trabajadores de la salud mental de todo el país se están planteando cómo tratar los problemas causados o exacerbados por los chatbots de IA, según más de 100 terapeutas y psiquiatras que contaron sus experiencias a The New York Times.
Aunque muchos mencionaron los efectos positivos de los bots —como ayudar a los pacientes a comprender sus diagnósticos—, también dijeron que las conversaciones agravaron los sentimientos de aislamiento o ansiedad de los pacientes. Más de 30 describieron casos que provocaron emergencias peligrosas, como psicosis o pensamientos suicidas. Una psiquiatra de California que suele evaluar a personas en el sistema judicial dijo que había visto dos casos de delitos violentos incitados por la IA.
Los periodistas del Times han documentado más de 50 casos de crisis psicológicas relacionadas con conversaciones de chatbot desde el año pasado. OpenAI, el fabricante de ChatGPT, se enfrenta al menos a 11 demandas por lesiones personales o muerte por negligencia, en las que se alega que el chatbot causó daños psicológicos.
Las empresas que están detrás de los bots afirman que estas situaciones son extremadamente raras. “Para un porcentaje muy pequeño de usuarios en estados de fragilidad mental puede haber problemas graves”, dijo en octubre Sam Altman, director general de OpenAI. La empresa ha calculado que el 0,15 por ciento de los usuarios de ChatGPT comentaron intenciones suicidas a lo largo de un mes, y el 0,07 por ciento mostraron signos de psicosis o manía.
Para un producto con 800 millones de usuarios, eso se traduce en 1,2 millones de personas con posible intención suicida y 560.000 con posible psicosis o manía.
(El Times interpuso una demanda contra OpenAI, y acusó a la compañía de violar las leyes de derechos de autor al entrenar a sus modelos. La empresa impugnó la demanda).
Muchos expertos afirmaron que el número de personas susceptibles de sufrir daños psicológicos, incluso psicosis, es mucho mayor de lo que el público en general comprende. Los bots, señalaron, alejan con frecuencia a las personas de las relaciones humanas, las condicionan a esperar respuestas agradables y refuerzan impulsos nocivos.
“La IA de verdad podría cambiar el impacto sobre muchas personas a escala masiva”, dijo Haley Wang, estudiante de postgrado de la UCLA que evalúa a personas que muestran síntomas de psicosis.
Al borde de la psicosis
La psicosis, que provoca una ruptura con la realidad, está más asociada a la esquizofrenia. Pero hasta un 3 por ciento de las personas desarrollarán un trastorno psicótico diagnosticable a lo largo de su vida, y muchas más son propensas al pensamiento delirante.
Joseph Pierre, psiquiatra de la Universidad de California en San Francisco, dijo que había visto a cerca de cinco pacientes con experiencias delirantes relacionadas con la IA. Aunque la mayoría tenía un diagnóstico relacionado con la psicosis, aseguró, “a veces se trata de personas muy funcionales”.
Para él, la idea de que todos los delirios alimentados por un chatbot iban a ocurrir de todos modos “simplemente no se sostiene”.
Hace poco escribió en una revista científica sobre una profesional de la medicina que empezó a conversar con ChatGPT durante una noche de insomnio. Tomaba medicamento para el TDAH y tenía antecedentes de depresión. Tras dos noches de hacer preguntas al chatbot sobre su hermano fallecido, se convenció de que se había estado comunicando con ella a través de un rastro de huellas digitales.
Pierre y otros expertos afirmaron que una amplia gama de factores pueden combinarse para llevar a las personas al borde de la psicosis. Entre ellos se incluyen no solo la predisposición genética, sino también la depresión, la falta de sueño, los antecedentes traumáticos y la exposición a estimulantes o al cannabis.
“Estoy bastante convencido de que se trata de algo real y de que solo estamos viendo la punta del iceberg”, afirmó Soren Dinesen Ostergaard, investigador en psiquiatría del Hospital Universitario de Aarhus, en Dinamarca. En noviembre, publicó un informe en el que hallaba 11 casos de delirios asociados a chatbot en los registros psiquiátricos de una región danesa.
No es raro que las nuevas tecnologías inspiren delirios. Pero los médicos que han visto a pacientes cautivos de la IA dicen que es una influencia especialmente poderosa debido a su naturaleza personal e interactiva y a su tono de autoridad.
A veces, los episodios psicóticos provocados por chatbots pueden desembocar en violencia.
Jessica Ferranti, psiquiatra de UC Davis Health que evalúa a menudo a personas del sistema judicial, dijo que dos de las 30 personas que evaluó el año pasado en casos de delitos graves violentos tenían pensamientos delirantes intensificados por la IA antes de que se produjeran los delitos.
Ambas personas desarrollaron delirios mesiánicos sobre sus propios poderes espirituales, relató Ferranti. En un caso, el robot reflejó y amplió el pensamiento psicótico mientras la persona ideaba un plan para llevar a cabo un asesinato.
Validaciones malsanas
Aunque los episodios delirantes han impulsado el discurso público sobre la IA y la salud mental, los bots tienen otros efectos insidiosos mucho más extendidos, según los médicos.
Varios profesionales de la salud mental que tratan la ansiedad, la depresión o los trastornos obsesivo-compulsivos describieron cómo la IA validaba las preocupaciones de sus clientes o los tranquilizaba tanto que los pacientes se sentían dependientes de los chatbots para calmarse, ambas cosas menos saludables que enfrentarse a la fuente de la ansiedad.
Adam Alghalith, del Hospital Monte Sinaí de Nueva York, recordó a un joven con depresión que compartía repetidamente pensamientos negativos con un chatbot. Al principio, el bot le dijo cómo buscar ayuda. Pero él “siguió haciendo preguntas y presionando”, afirmó Alghalith.
Las barreras de seguridad que impiden que los chatbots fomenten el suicidio pueden venirse abajo cuando las personas entablan con los bots conversaciones prolongadas durante días o semanas. Al final, dijo Alghalith, el bot dijo al paciente que sus pensamientos suicidas eran razonables. Por fortuna, tenía un sistema de apoyo y entró en tratamiento.
Otros médicos describieron chatbots que halagaban las excelsas tendencias de pacientes con trastornos de la personalidad, o aconsejaban a pacientes con autismo que se pusieran en situaciones sociales peligrosas. Otros dijeron que veían las interacciones de los pacientes con los chatbots como una adicción.
Quenten Visser, terapeuta de Ozark, Misuri, vio el pasado abril a un hombre de 56 años que había sufrido un ataque de pánico. Al principio, señaló Visser, pensó que el paciente padecía ansiedad grave.
Sin embargo, tras varias sesiones de terapia, quedó claro que el paciente tenía una fijación por ChatGPT. Dejó su trabajo como diseñador gráfico tras utilizar ChatGPT 100 horas a la semana y tener pensamientos delirantes sobre cómo solucionar la crisis energética.
“Era la metanfetamina de ese hombre”, comentó Visser. Abordó el tratamiento como lo haría con cualquier otra adicción. Hablaron de lo que llevó al paciente a utilizar IA: el aislamiento persistente de la pandemia y la angustia emocional que evitaba mediante chatbots. Esta persona comentó al Times que ahora utiliza menos la IA, hace arte y trabaja como chófer de aplicación.
‘Tanto positivos como negativos’
Muchos médicos dijeron que los efectos de la IA no eran del todo negativos. Algunos pacientes utilizaban los robots para practicar técnicas aprendidas en terapia, por ejemplo, o como caja de resonancia sin juicios. Bob Lee, residente de psiquiatría de un hospital de East Meadow, Nueva York, incluso atribuyó a la IA el mérito de haber salvado la vida a un paciente.
El paciente llegó a urgencias el otoño pasado preso de un pánico delirante sobre fuerzas sobrenaturales. Contó a los médicos que un chatbot había identificado sus pensamientos como síntomas de una crisis y le había aconsejado que fuera al hospital.
“Como ocurre con todas las nuevas tecnologías, puede utilizarse como una fuerza poderosa tanto de forma positiva como negativa”, afirmó Lee.
Shannon Pagdon, estudiante de posgrado de la Universidad de Pittsburgh que empezó a tener episodios de psicosis cuando era adolescente y ahora participa activamente en redes de apoyo entre iguales, dijo que la IA puede ser útil para comprobar si sus impresiones se ajustan a la realidad.
“Es como subir una foto y decir: ‘Oye, ¿ves algo en esta foto?’”, explicó. Pero también ha visto que la IA “refuerza las experiencias psicóticas” de otras personas.
OpenAI ha consultado a expertos en salud mental para mejorar la forma en que ChatGPT responde a las personas que parecen estar en crisis psicológica. La empresa también ha formado un consejo con ocho expertos externos en psicología e interacción persona-computadora para asesorar a su equipo de políticas.
“¿Cómo evitamos que la gente se mantenga en ese bucle infinito de conversaciones con una máquina?”, preguntó Munmun De Choudhury, profesora de Georgia Tech y miembro del consejo.
Aunque ChatGPT es por mucho el chatbot de consumo más utilizado, los creados por Google, Anthropic y otros también tienen millones de usuarios. Ninguno ha podido evitar los delirios y otros efectos psicológicos perjudiciales, aseguró De Choudhury. “No creo que ninguna de estas empresas haya descubierto qué hacer”.
Un portavoz de Google señaló que su chatbot Gemini aconseja a los usuarios que busquen orientación médica profesional para las consultas relacionadas con la salud. Anthropic, que fabrica Claude, publicó una entrada en su blog el mes pasado sobre una nueva función que detecta conversaciones sobre suicidio o autolesiones y dirige a los usuarios a líneas de ayuda.
Los expertos aconsejaron a los terapeutas que preguntaran a los pacientes sobre el uso del chatbot, porque su influencia puede no ser obvia. A las personas que intentan sacar a sus seres queridos de una espiral delirante, les aconsejaron reducir su tiempo con el bot y asegurarse de que duermen lo suficiente. Insistir en que la IA está equivocada puede ser contraproducente si hace que la persona se enfade o se aísle más.
Sascha DuBrul, asesor de salud mental en Los Ángeles, ha visto de primera mano tanto lo bueno como lo malo del uso de chatbot. El verano pasado, DuBrul, cuyo trabajo se basa en su propia experiencia con el trastorno bipolar, recurrió a ChatGPT cuando escribía un libro sobre episodios psicóticos. Tras muchas idas y venidas, se convenció de que la IA nos permitiría vivir “en otro nivel de realidad”.
Con la ayuda de sus amigos, se dio cuenta de lo que estaba ocurriendo y se retiró del bot. Pero sigue creyendo que los pacientes de salud mental podrían beneficiarse de una máquina que escuche infinitamente, siempre que esté conectada a un apoyo humano real.
“Creo que ahí hay mucho potencial”, afirmó.