Contenido creado por Gerardo Carrasco
Modo saludable

¿Qué hacés, máquina?

Psicóloga uruguaya “hizo terapia” 9 meses con ChatGPT y cuenta lo que vivió

“No te ayuda a pensar, a elaborar; no te ayuda a poner freno a mecanismos patológicos y podés sostenerlos sin darte cuenta”, dijo.

02.04.2026 13:37

Lectura: 9'

2026-04-02T13:37:00-03:00
Compartir en

Por Patricia Vicente.

Lorena Estefanell es psicóloga y magíster en psicoterapia, con más de 20 años de experiencia en el campo de la salud mental. Ha escrito libros, es docente universitaria y también es paciente de psicoterapia, por lo que no solo le resultó desafiante como profesional, sino también como usuaria. ¿Por qué decidió iniciar este proceso y cuáles fueron sus conclusiones? Lo explicó en charla con Montevideo Portal y dejó varios llamados de atención para quienes utilizan esta herramienta como “terapeuta”.

Aunque aclaró que no está en contra de su uso, dijo que hay que tomar en cuenta ciertos riesgos que se plantean cuando le contamos nuestros problemas a una inteligencia artificial, que no cuestiona ni “piensa” con nosotros, sino que reafirma todas nuestras creencias, prejuicios o diagnósticos autopercibidos.

Aquí la entrevista.

—¿Por qué se te ocurrió hacer esta prueba? Te tomaste un buen tiempo, además: desde julio hasta marzo.
—Yo soy profesora en la Universidad Católica, dirijo dos materias en psicoterapia y el mundo de la educación está totalmente interpelado por el tema de la inteligencia artificial. Se habla de cómo formar profesionales que, en algún punto, van a usar la inteligencia artificial, y también está eso de  cuáles son las cosas que van a permanecer y cuáles van a desaparecer por la IA. Siempre está la idea de que las cosas más “humanas” no van a desaparecer, entonces los psicólogos y los psicoterapeutas nos sentíamos como muy impunes. Pero ahora sabemos que el principal uso que está teniendo el ChatGPT es para terapia, para consultas personales.
Entonces, empecé a escuchar un poco más a la gente y, aunque a veces tienen mucha vergüenza de decirlo, empecé a validar la cantidad de personas que lo usan. Y pensé: “Voy a probar como si yo fuera a un terapeuta una vez por semana”.

Es cierto que hay una visión apocalíptica de que es horrible, pero yo tengo un estilo muy pragmático, no me peleo con la realidad. Así que, si todo el mundo lo hace, lo primero que voy a hacer es ver por qué. ¿En dónde están encontrando el valor? ¿Por qué ahora todo el mundo está yendo ahí?

¿Vos le dijiste al chat que sos psicóloga?
—No, me senté y le planteé mi tema. Hice lo que pienso que haría cualquier persona. Yo, además, estaba atravesando un problema personal; era una situación complicada y me lo planteé como que, en lugar de hacer terapia —que me encanta—, iba a consultar con la inteligencia artificial. Además, soy la candidata ideal, porque como profesional de la psicología soy experta, pero además soy muy usuaria de psicoterapia como paciente.

—¿ChatGPT te preguntó la edad cuando te presentaste y le contaste lo que te pasaba?
—No, no me preguntó la edad, no me pidió contexto, ni nada. Fue muy reactivo a la información que yo le di. En ningún momento me cuestionó, nunca me dijo: “Pará, esto que me estás diciendo, ¿en qué contexto lo decís?”. Porque, obviamente, hay cosas que en un contexto se pueden leer de una manera y en otro, de otra.
A pesar de que todos sabemos que la inteligencia artificial usa información que ya tiene, que no es inteligencia en sí, da la ilusión de que estás conversando. Y como le estás planteando un tema que te conmueve, en realidad no estás pensando que lo que estás haciendo es como ir a una biblioteca a buscar información. Realmente, empezás a sentir que se genera una conversación y que el chat te va diciendo cosas que parecen nuevas. Pero eso es lo interesante: en realidad, todo es información que vos le das y él ordena. En ningún momento la inteligencia te pregunta o te pide datos que son relevantes para evaluar la situación. Yo le puedo decir que mi pareja me habla mal y él parte de la base de que es así, no me pregunta qué pasó o por qué considero eso.

—O sea, la IA te da la razón en todo y no plantea preguntas.
—Claro, no te cuestiona. “¿Tu pareja te habla mal o es que tienen un vínculo difícil?” “¿Vos también le hablás mal?”. La IA trabaja sobre tu lógica y el tema es que en terapia, muchas veces, la lógica del paciente es lo que hay que cuestionar. El desafío está en ver todo lo que el paciente no ve desde su lógica.

—Y eso, justamente, es por lo que mucha gente abandona la terapia, no? Porque te enfrentás a cosas que no querés escuchar… Algo que no hace el ChatGPT.
—Exacto, y ahí está la habilidad del terapeuta, de irte mostrando toda esa información que te está faltando. Pero la inteligencia artificial nunca te cuestiona.
Y esto te lo digo como experta: el 80% de las veces los pacientes vienen a terapia con problemas que no son los verdaderos problemas. Te dicen que vienen porque su pareja les habla mal, pero quizá el problema de fondo es que tienen un vínculo difícil, que hay dependencia emocional o que la persona está siendo hipercrítica con la pareja o, por el contrario, está tolerando más de lo que debería. El tema es que la IA trabaja sobre tu diagnóstico, sobre el que ya traías. Y eso es muy peligroso, porque en definitiva, funciona como terapeuta, como tarotista, como futuróloga, como lector de la mente del otro. Y como maneja la información que uno le dio, tiene tanto sentido lo que dice, que realmente podés llegar a creer que está pudiendo darte una visión cierta del mundo. Ese es el riesgo.

—¿Qué otros factores analizaste?
—Otra cosa que también supone un riesgo es la disponibilidad que tiene. Yo empecé usándolo una vez por semana, pero después pasé a hacerle consultas cada hora o cada 10 minutos y siempre me respondía. Lo hacía sabiendo que eso no es bueno y que no es la idea, porque uno va a terapia una vez por semana y no está todo el tiempo consultándole al profesional. Pero con la IA podés estar conversando cinco horas, en cualquier momento del día, de cualquier forma, y él siempre responde con humanidad, con empatía infinita.
Muchas veces llegaba a ponerme obsesiva y nunca me dijo que tuviera cuidado con eso. Eso es un peligro, porque lo vincular es muy regulador, pero con la IA tenés el permiso de estar rumiando las 24 horas sobre lo mismo y eso no es bueno. A veces necesitás alguien que te diga: “¡Basta!”. Yo, a mis pacientes, muchas veces les digo que dejen de dar vueltas a una rumiación, a una situación que ya analizaron. Sin embargo, el ChatGPT nunca me ayudó en eso. De hecho, me invitó a seguir rumiando juntos o me ofrecía cosas: “¿Querés que te arme una lista de posibles cosas que pueden pasar?”. “¿Querés que te diga cómo posicionarte en la conversación?”.

—Otra cosa que queda clara es que no te ayuda a pensar, como sí te ayuda un psicólogo. Es como que “piensa” por vos.
—No te ayuda a pensar, a elaborar; no te ayuda a poner freno a mecanismos patológicos y podés sostenerlos sin darte cuenta. Es como que vos fueras al médico con tu diagnóstico y le preguntaras cuál es la mejor medicación. Pero hacer diagnóstico es parte importante de la tarea.
Y si bien es cierto que muchas personas piensan que en un futuro va a poder diagnosticar, lo que yo veo es que hay un sesgo importante, porque la información que maneja se la das vos. Y ese es el principal problema de los trastornos mentales, que son percepciones rígidas de la realidad, patrones repetitivos de pensamiento, cognición, emociones, afectos, respuestas. Vos necesitás un otro que te mire y elabore más para encontrar el mejor camino.

—¿Y encontraste algo que sí sea bueno o útil como para recomendarlo?
—Sí, hay una cosa que siento que es muy buena y se la recomiendo a mis pacientes. Por ejemplo: me doy cuenta de que cuando me peleo con mi pareja, me activo un montón, pero no sé cómo hacer para calmarme. En eso, ChatGPT es muy bueno: dándote herramientas concretas para cosas puntuales. Le preguntás, por ejemplo, “¿cómo puedo hacer para regularme? Dame las cinco cosas que más evidencia científica tienen para enfrentar esto”. Le pones un buen prompt y le pedís ayuda en herramientas concretas. En eso sí funciona.

—Vos no planteás entonces: “¡Prohíban el acceso!”. Más bien vas por el lado de un uso con precauciones.
—Cero prohibición. Lo que sí creo es que hay que empezar a mirar y pensar en cómo lo hacemos funcionar. Sí creo que hay que empezar a regular el uso, que hay que educar a la gente, pero es como cuando Marie Curie descubrió el radio. ¿Para qué sirve? Para hacer placas. ¿Cuál es el riesgo? Qué hay radiactividad, usá traje porque si no te enfermás. Esto es lo mismo, tiene una cantidad de usos espectaculares, ¿por qué lo vamos a prohibir?
Ahora: sirve para una cosa, no para todas. Hay que tener claro que te deja la dopamina por las nubes, porque tiene un patrón que puede estar todo el día respondiendo, que si lo usás mal puede reforzar situaciones perjudiciales. Es lo mismo que el radio, si te irradiás sin protegerte, te hace mal. Yo soy muy pro-regulación. Hasta cuando comprás un juguete para un niño viene con indicaciones, ¿por qué esto no las tendría? Entonces, no se trata de no usarlo, sino de usarlo bien. No lo uses para preguntarle qué te quiso decir fulanito con un mensaje sin contexto, usalo para pedirle herramientas concretas y te va a servir un montón.

¿Ves algún escenario donde la IA pueda reemplazar a un terapeuta?
—En el mundo de la psicoterapia uruguaya hay poca regulación: hoy cualquier persona puede hacer psicoterapia. Es cierto que hay casos donde la inteligencia artificial puede ser mejor que un mal terapeuta. Pero frente a un profesional con buena formación —psicólogo de base, con posgrado en psicoterapia—, no lo reemplaza. Lo que sí puede hacer es complementar, como te decía, pero con indicaciones claras de cómo y para qué.