Por Patricia Vicente.
Lorena Estefanell es psicóloga y magíster en psicoterapia, con más de 20 años de experiencia en el campo de la salud mental. Ha escrito libros, es docente universitaria y también es paciente de psicoterapia, por lo que no solo le resultó desafiante como profesional, sino también como usuaria. ¿Por qué decidió iniciar este proceso y cuáles fueron sus conclusiones? Lo explicó en charla con Montevideo Portal y dejó varios llamados de atención para quienes utilizan esta herramienta como “terapeuta”.
Aunque aclaró que no está en contra de su uso, dijo que hay que tomar en cuenta ciertos riesgos que se plantean cuando le contamos nuestros problemas a una inteligencia artificial, que no cuestiona ni “piensa” con nosotros, sino que reafirma todas nuestras creencias, prejuicios o diagnósticos autopercibidos.
Aquí la entrevista.
—¿Por qué se te ocurrió hacer esta prueba?
Te tomaste un buen tiempo, además: desde julio hasta marzo.
—Yo soy profesora en la Universidad Católica, dirijo
dos materias en psicoterapia y el mundo de la educación está totalmente
interpelado por el tema de la inteligencia artificial. Se habla de cómo formar
profesionales que, en algún punto, van a usar la inteligencia artificial, y
también está eso de cuáles son las cosas
que van a permanecer y cuáles van a desaparecer por la IA. Siempre está la idea
de que las cosas más “humanas” no van a desaparecer, entonces los psicólogos y
los psicoterapeutas nos sentíamos como muy impunes. Pero ahora sabemos que el
principal uso que está teniendo el ChatGPT es para terapia, para consultas
personales.
Entonces, empecé a escuchar un poco más a la gente y, aunque a veces tienen
mucha vergüenza de decirlo, empecé a validar la cantidad de personas que lo
usan. Y pensé: “Voy a probar como si yo fuera a un terapeuta una vez por
semana”.
Es cierto que hay una visión apocalíptica de que es horrible, pero yo tengo un estilo muy pragmático, no me peleo con la realidad. Así que, si todo el mundo lo hace, lo primero que voy a hacer es ver por qué. ¿En dónde están encontrando el valor? ¿Por qué ahora todo el mundo está yendo ahí?
—¿Vos le dijiste al chat que sos psicóloga?
—No, me senté y le planteé mi tema. Hice lo que pienso que haría cualquier
persona. Yo, además, estaba atravesando un problema personal; era una situación
complicada y me lo planteé como que, en lugar de hacer terapia —que me
encanta—, iba a consultar con la inteligencia artificial. Además, soy la
candidata ideal, porque como profesional de la psicología soy experta, pero
además soy muy usuaria de psicoterapia como paciente.
—¿ChatGPT te preguntó la edad cuando te
presentaste y le contaste lo que te pasaba?
—No, no me preguntó la edad, no me pidió contexto, ni nada. Fue muy
reactivo a la información que yo le di. En ningún momento me cuestionó, nunca
me dijo: “Pará, esto que me estás diciendo, ¿en qué contexto lo decís?”.
Porque, obviamente, hay cosas que en un contexto se pueden leer de una manera y
en otro, de otra.
A pesar de que todos sabemos que la inteligencia artificial usa información que
ya tiene, que no es inteligencia en sí, da la ilusión de que estás conversando.
Y como le estás planteando un tema que te conmueve, en realidad no estás
pensando que lo que estás haciendo es como ir a una biblioteca a buscar
información. Realmente, empezás a sentir que se genera una conversación y que
el chat te va diciendo cosas que parecen nuevas. Pero eso es lo interesante: en
realidad, todo es información que vos le das y él ordena. En ningún momento la
inteligencia te pregunta o te pide datos que son relevantes para evaluar la situación.
Yo le puedo decir que mi pareja me habla mal y él parte de la base de que es
así, no me pregunta qué pasó o por qué considero eso.
—O sea, la IA te da la razón en todo y no
plantea preguntas.
—Claro, no te cuestiona. “¿Tu pareja te habla mal o es que tienen un vínculo
difícil?” “¿Vos también le hablás mal?”. La IA trabaja sobre tu lógica y el
tema es que en terapia, muchas veces, la lógica del paciente es lo que hay que
cuestionar. El desafío está en ver todo lo que el paciente no ve desde su
lógica.
—Y eso, justamente, es por lo que mucha
gente abandona la terapia, no? Porque te enfrentás a cosas que no querés
escuchar… Algo que no hace el ChatGPT.
—Exacto, y ahí está la habilidad del terapeuta, de
irte mostrando toda esa información que te está faltando. Pero la inteligencia
artificial nunca te cuestiona.
Y esto te lo digo como experta: el 80% de las veces los pacientes vienen a
terapia con problemas que no son los verdaderos problemas. Te dicen que vienen
porque su pareja les habla mal, pero quizá el problema de fondo es que tienen
un vínculo difícil, que hay dependencia emocional o que la persona está siendo
hipercrítica con la pareja o, por el contrario, está tolerando más de lo que
debería. El tema es que la IA trabaja sobre tu diagnóstico, sobre el que ya
traías. Y eso es muy peligroso, porque en definitiva, funciona como terapeuta,
como tarotista, como futuróloga, como lector de la mente del otro. Y como
maneja la información que uno le dio, tiene tanto sentido lo que dice, que
realmente podés llegar a creer que está pudiendo darte una visión cierta del
mundo. Ese es el riesgo.
—¿Qué otros factores analizaste?
—Otra cosa que también supone un riesgo es la
disponibilidad que tiene. Yo empecé usándolo una vez por semana, pero después
pasé a hacerle consultas cada hora o cada 10 minutos y siempre me respondía. Lo
hacía sabiendo que eso no es bueno y que no es la idea, porque uno va a terapia
una vez por semana y no está todo el tiempo consultándole al profesional. Pero
con la IA podés estar conversando cinco horas, en cualquier momento del día, de
cualquier forma, y él siempre responde con humanidad, con empatía infinita.
Muchas veces llegaba a ponerme obsesiva y nunca me dijo que tuviera cuidado con
eso. Eso es un peligro, porque lo vincular es muy regulador, pero con la IA
tenés el permiso de estar rumiando las 24 horas sobre lo mismo y eso no es
bueno. A veces necesitás alguien que te diga: “¡Basta!”. Yo, a mis pacientes,
muchas veces les digo que dejen de dar vueltas a una rumiación, a una situación
que ya analizaron. Sin embargo, el ChatGPT nunca me ayudó en eso. De hecho, me
invitó a seguir rumiando juntos o me ofrecía cosas: “¿Querés que te arme una
lista de posibles cosas que pueden pasar?”. “¿Querés que te diga cómo
posicionarte en la conversación?”.
—Otra cosa que queda clara es que no te
ayuda a pensar, como sí te ayuda un psicólogo. Es como que “piensa” por vos.
—No te ayuda a pensar, a elaborar; no te ayuda a poner
freno a mecanismos patológicos y podés sostenerlos sin darte cuenta. Es como
que vos fueras al médico con tu diagnóstico y le preguntaras cuál es la mejor
medicación. Pero hacer diagnóstico es parte importante de la tarea.
Y si bien es cierto que muchas personas piensan que en un futuro va a poder
diagnosticar, lo que yo veo es que hay un sesgo importante, porque la
información que maneja se la das vos. Y ese es el principal problema de los
trastornos mentales, que son percepciones rígidas de la realidad, patrones
repetitivos de pensamiento, cognición, emociones, afectos, respuestas. Vos
necesitás un otro que te mire y elabore más para encontrar el mejor camino.
—¿Y encontraste algo que sí sea bueno o
útil como para recomendarlo?
—Sí, hay una cosa que siento que es muy buena y se la
recomiendo a mis pacientes. Por ejemplo: me doy cuenta de que cuando me peleo
con mi pareja, me activo un montón, pero no sé cómo hacer para calmarme. En
eso, ChatGPT es muy bueno: dándote herramientas concretas para cosas puntuales.
Le preguntás, por ejemplo, “¿cómo puedo hacer para regularme? Dame las cinco
cosas que más evidencia científica tienen para enfrentar esto”. Le pones un buen
prompt y le pedís ayuda en herramientas concretas. En eso sí funciona.
—Vos no planteás entonces: “¡Prohíban el
acceso!”. Más bien vas por el lado de un uso con precauciones.
—Cero prohibición. Lo que sí creo es que hay que empezar a mirar y pensar en
cómo lo hacemos funcionar. Sí creo que hay que empezar a regular el uso, que
hay que educar a la gente, pero es como cuando Marie Curie descubrió el radio.
¿Para qué sirve? Para hacer placas. ¿Cuál es el riesgo? Qué hay radiactividad,
usá traje porque si no te enfermás. Esto es lo mismo, tiene una cantidad de
usos espectaculares, ¿por qué lo vamos a prohibir?
Ahora: sirve para una cosa, no para todas. Hay que tener claro que te deja la
dopamina por las nubes, porque tiene un patrón que puede estar todo el día
respondiendo, que si lo usás mal puede reforzar situaciones perjudiciales. Es
lo mismo que el radio, si te irradiás sin protegerte, te hace mal. Yo soy muy
pro-regulación. Hasta cuando comprás un juguete para un niño viene con
indicaciones, ¿por qué esto no las tendría? Entonces, no se trata de no usarlo,
sino de usarlo bien. No lo uses para preguntarle qué te quiso decir fulanito
con un mensaje sin contexto, usalo para pedirle herramientas concretas y te va
a servir un montón.
—¿Ves algún escenario donde la IA pueda
reemplazar a un terapeuta?
—En el mundo de la psicoterapia uruguaya hay poca regulación: hoy cualquier
persona puede hacer psicoterapia. Es cierto que hay casos donde la inteligencia
artificial puede ser mejor que un mal terapeuta. Pero frente a un profesional
con buena formación —psicólogo de base, con posgrado en psicoterapia—, no lo
reemplaza. Lo que sí puede hacer es complementar, como te decía, pero con
indicaciones claras de cómo y para qué.
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla [email protected], para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.
Si querés leerlo hacé clic aquí[+]