Contenido creado por María Noel Dominguez
Tecnología

Suerte con eso

OpenAI ajusta ChatGPT para priorizar la seguridad de adolescentes

El modelo tratará a usuarios de 13 a 17 años con enfoque preventivo y apoyo en el mundo real ante temas de riesgo.

19.12.2025 07:14

Lectura: 2'

2025-12-19T07:14:00-03:00
Compartir en

En una medida orientada a reforzar la protección digital de los menores, OpenAI  anunció una actualización clave en las normas que guían el comportamiento de ChatGPT cuando interactúa con adolescentes. A partir de ahora, el modelo de lenguaje deberá tratar a los usuarios de entre 13 y 17 años como lo que son: adolescentes, con necesidades emocionales, cognitivas y sociales distintas a las de los adultos.

La decisión se enmarca en un enfoque basado en la prevención, la transparencia y la intervención temprana, pilares que OpenAI define como centrales para fomentar entornos más seguros en sus herramientas de inteligencia artificial. Según la empresa, se trata de priorizar la seguridad "incluso si entra en conflicto con otros objetivos" del modelo.

Cuatro compromisos clave

El nuevo conjunto de principios se basa en los siguientes compromisos:

  1. Priorizar la seguridad: Ante cualquier duda, el modelo deberá actuar con precaución.
  2. Promover el apoyo en el mundo real: En situaciones sensibles, se alentará al usuario a buscar ayuda en personas cercanas y en recursos profesionales.
  3. Tratar a los adolescentes como adolescentes: Sin condescendencia, pero con sensibilidad, el modelo adaptará su lenguaje y recomendaciones.
  4. Transparencia y expectativas claras: Se establecerán límites explícitos en las interacciones, explicando por qué ciertas preguntas no pueden ser respondidas.

Con información de Europa Press