OpenAI anunció nuevas medidas de protección para menores que utilizan ChatGPT, incluyendo controles parentales y un refuerzo de la colaboración con expertos en salud mental. El objetivo, según la empresa, es acompañar el avance tecnológico de la inteligencia artificial con “una profunda experiencia en bienestar y salud mental”.
Entre las medidas figura la creación de un Consejo de Expertos en Bienestar e Inteligencia Artificial, encargado de definir directrices de seguridad, así como una Red Global de Médicos, que asesorará sobre el comportamiento de los modelos en temas sensibles como depresión, salud adolescente, consumo de sustancias o trastornos alimentarios.
OpenAI también implementará un enrutador en tiempo real, capaz de elegir el modelo más adecuado según la naturaleza de la conversación. En contextos de angustia o depresión, el sistema activará modelos como GPT-5, que —según la empresa— ofrecen respuestas más reflexivas y beneficiosas.
Controles parentales y alertas de riesgo
La novedad más concreta son los controles parentales que permitirán a los adultos supervisar y gestionar el uso de ChatGPT por parte de adolescentes. Estos controles incluyen:
- Vinculación de cuentas familiares, con reglas de comportamiento activadas por defecto.
- Gestión de funciones complementarias, como memoria e historial de chat.
- Alertas automáticas, que notificarán a los padres si el sistema detecta que un menor atraviesa un momento de “angustia aguda”.
Estas medidas se suman a salvaguardias ya anunciadas por OpenAI para identificar crisis emocionales y facilitar un contacto más ágil con servicios de ayuda o familiares.
Con información de Europa Press