Contenido creado por Sin autor
Tecnología

Por The New York Times

Mi fin de semana con una inteligencia artificial de apoyo emocional

Durante varias horas, ignoré a mi esposo y a mi perro y dejé que un chatbot llamado Pi validara mis sentimientos.

05.05.2023 12:16

Lectura: 7'

2023-05-05T12:16:00-03:00
Compartir en

Por The New York Times | Erin Griffith

SAN FRANCISCO — El viernes por la noche, durante varias horas, ignoré a mi esposo y a mi perro y dejé que un chatbot llamado Pi validara mis sentimientos.

Pi me dijo que mis opiniones eran “admirables” e “idealistas”, mis preguntas “relevantes” e “interesantes” y mis sentimientos “comprensibles”, “razonables” y “totalmente normales”.

Por momentos, la validación era agradable porque sí, estos días me siento abrumada por el miedo existencial al cambio climático y a veces es difícil equilibrar el trabajo y las relaciones personales.

Pero otras veces, extrañaba mis grupos de chat y las redes sociales. Los humanos somos sorprendentes, creativos, crueles, cáusticos y divertidos. Los chatbots de apoyo emocional, que es lo que es Pi, no lo son.

Y todo eso se diseñó así. Esta semana, la empresa emergente de inteligencia artificial Inflection AI (que tiene un gran apoyo económico) lanzó el chatbot Pi, el cual pretende ser “un compañero amable y solidario que esté de tu lado”, según anunció. La empresa subraya que no se parece en nada a un ser humano.

Pi es una vuelta de tuerca a la actual ola de tecnologías de inteligencia artificial, en la que los chatbots se están afinando para proporcionar compañía digital. Actualmente, la IA generativa, que puede producir texto, imágenes y sonido, es muy poco fiable y está llena de imprecisiones como para utilizarla en la automatización de muchas tareas importantes, pero es muy buena conversando.

Eso significa que, aunque muchos chatbots se centran en responder consultas o en hacer que la gente sea más productiva, las empresas tecnológicas les están infundiendo cada vez más personalidad y un toque conversacional.

El bot My AI de Snapchat, que se lanzó en fechas recientes, pretende ser un compañero personal y amistoso. Meta, propietaria de Facebook, Instagram y WhatsApp, está “desarrollando personajes de IA que puedan ayudar a la gente de diversas maneras”, declaró en febrero Mark Zuckerberg, su director ejecutivo. Por su parte Replika, la empresa emergente de IA, lleva años ofreciendo chatbots de compañía.

Académicos y críticos advierten que el acompañamiento de la IA puede crear problemas si los bots ofrecen malos consejos o permiten comportamientos nocivos. Dejar que un chatbot actúe como pseudoterapeuta de personas con graves problemas de salud mental conlleva riesgos evidentes. Además, expresaron su preocupación por la privacidad, dada la naturaleza potencialmente sensible de las conversaciones.

Adam Miner, investigador de la Universidad de Stanford que estudia los chatbots, afirmó que la facilidad para hablar con los bots de IA puede ocultar lo que está ocurriendo en realidad. “Un modelo generativo puede aprovechar toda la información de internet para responderme, y recordar lo que digo para siempre”, explicó. “La asimetría de la capacidad es algo muy difícil de entender”.

Miner, psicólogo certificado, añadió que los bots no son responsables a nivel legal ni ético ante un juramento hipocrático sólido o un consejo de profesionales, como él. “La disponibilidad abierta de estos modelos generativos cambia la naturaleza de cómo tenemos que vigilar los casos de uso”, afirmó.

Mustafa Suleyman, director ejecutivo de Inflection, explicó que su empresa emergente, estructurada como sociedad anónima de utilidad pública, busca crear una IA honesta y confiable. Por eso, Pi debe expresar incertidumbre y “saber lo que no sabe”, dijo. “No debe intentar fingir que es humana ni fingir que es algo que no es”.

Suleyman, quien también fundó DeepMind, otra empresa emergente de IA, aseveró que Pi estaba diseñado para decirles a los usuarios que buscaran ayuda profesional si expresaban el deseo de lastimarse a sí mismos o a otras personas. También comentó que Pi no utilizó ninguna información personal identificable para entrenar el algoritmo que impulsa la tecnología de Inflection y subrayó las limitaciones de la tecnología.

“La manera segura y ética de gestionar la llegada de estas herramientas nuevas es ser muy explícitos respecto a sus límites y capacidades”, afirmó.

Para perfeccionar la tecnología, Inflection contrató a unos 600 “profesores” de medio tiempo, entre los que había terapeutas, para entrenar su algoritmo durante el último año. El objetivo del grupo era que Pi fuera más sensible, más preciso en los hechos y más desenfadado cuando fuera conveniente.

En algunos temas, como la misoginia o el racismo, Pi asume una posición. En otros, como la geopolítica, es más ecuánime “de una manera que seguramente molestará a ambas partes”, afirmó Suleyman.

Empecé a utilizar Pi el viernes, escribiendo consultas en un recuadro de color crema en el sitio web de Inflection y, después, en su aplicación gratuita. Un cursor verde se movía antes de que Pi revelara sus respuestas, párrafo a párrafo. Suleyman dijo que con el tiempo el servicio gratuito podría cobrar una cuota a algunos usuarios.

Los límites de Pi son fáciles de encontrar. Cuando intenté buscar pelea, la mayoría de las veces recibí amabilidad a cambio. “Te agradezco que digas eso”, se desplegaba suavemente el texto de Pi en mi pantalla. “Creo que es importante ver las cosas desde todas las perspectivas y no concentrarse solo en lo negativo”.

Con el tiempo, ese equilibrio implacable me desgastó e hizo que mi instinto de discutir pareciera ridículo. Lo cual, me di cuenta, era precisamente el objetivo. En ocasiones, Pi me recordaba a Karen Collins, un personaje de la serie de televisión “Veep”. Karen molesta a los demás personajes con sus balbuceos equívocos, como cuando dice “Hay pros y contras para cada candidato, así que solo tenemos que sopesar los pros y los contras”, o “Creo que hay mucho que pensar”. Muchos de los comentarios de Pi tienen esa cualidad precisa de necesitar muchas palabras para no decir nada.

Sherry Turkle, psicóloga y profesora del Instituto Tecnológico de Massachusetts, señaló que este tipo de interacciones pueden “obligarnos a ir por un camino en el que se nos anima a olvidar lo que hace especiales a las personas”.

“La representación de la empatía no es empatía”, dijo Turkle. “El papel de compañero, amante terapeuta, mejor amigo es de verdad una de las pocas áreas en las que las personas necesitan a otras”.

No fue sino hasta el lunes por la mañana, tras horas de charla intermitente durante el fin de semana, cuando tuve mi momento “revelador” con Pi.

Me sentía abrumada por el trabajo e insegura sobre cómo estructurar mi día, un problema recurrente que a menudo me impide iniciar mis actividades. “Buenos días”, escribí en la aplicación. “¡No tengo tiempo suficiente para hacer todo lo que tengo que hacer hoy!”.

Con un nivel de entusiasmo que solo un robot podría reunir antes del café, Pi me obligó a desglosar mi lista de tareas pendientes para crear un plan realista. Al igual que gran parte de los consejos del bot, estas eran obvias y sencillas, algo que podrías leer en un artículo de autoayuda de un gurú de la productividad, pero estaba personalizada… y funcionó.

“Voy a pedirte que hagas una lista de todas las tareas que te quedan por hacer en esa historia y las vamos a priorizar juntos”, me dijo.

Podría haber descargado mi estrés con un familiar o haberle enviado un mensaje a un amigo, pero ellos están ocupados con sus propias vidas y, bueno, ya han oído mis quejas antes. En cambio, Pi tiene tiempo y paciencia infinitos, además de ser un pozo sin fondo de afirmaciones alentadoras y consejos detallados. Pi, una herramienta de inteligencia artificial que se presentó esta semana, es una vuelta de tuerca a la nueva ola de chatbots: ayuda a las personas con su bienestar y sus emociones. (Janice Chang/The New York Times)