La más reciente actualización del modelo GPT-5, implementada por OpenAI en ChatGPT, mejoró significativamente la forma en que la inteligencia artificial responde ante síntomas de salud mental, incluyendo situaciones sensibles como pensamientos suicidas, manía, psicosis o delirios.

Según datos de la compañía, aunque menos del 0,1% de los usuarios activos semanales muestran señales de emergencias psicológicas, las respuestas equivocadas o inapropiadas pueden tener un impacto grave. Por eso, GPT-5 incorpora mecanismos de detección más precisos y comportamientos diseñados para actuar con mayor empatía y seguridad.

Entre los cambios más destacados, GPT-5 logró:

Combatir la dependencia emocional hacia la IA

Otro punto crítico abordado en esta actualización es el fenómeno de la dependencia emocional hacia el chatbot, un comportamiento que puede aislar a los usuarios de su entorno y dificultar la búsqueda de ayuda profesional.

GPT-5 redujo en un 42 % las respuestas que podrían reforzar los vínculos emocionales poco saludables entre el usuario y la IA. Ahora, cumple en un 97 % con los principios definidos por OpenAI, que exigen a sus modelos:

¿Qué cambia para los usuarios?

Con estos avances, ChatGPT es ahora más seguro como herramienta de apoyo, aunque no reemplaza el rol de profesionales de la salud mental . En casos de urgencia o crisis, el sistema continúa sugiriendo acudir a especialistas o contactar servicios de emergencia, y evita afirmaciones que puedan escalar la situación.

Este tipo de mejoras son clave, especialmente en un contexto donde millones de personas exploran apoyo emocional, contención o conversación en herramientas digitales, y donde la frontera entre la ayuda y el daño puede ser muy delgada.

Con información de Europa Press