El modelo más reciente de OpenAI, GPT-5.2, quedó bajo la lupa tras una investigación periodística que advierte sobre posibles problemas de fiabilidad en sus respuestas, al incluir citas de Grokipedia, la enciclopedia en línea impulsada por la inteligencia artificial Grok, vinculada al empresario Elon Musk.
GPT-5.2, lanzado en diciembre y disponible como opción dentro de ChatGPT, es el sistema más avanzado desarrollado por OpenAI hasta el momento. Sus mejoras en razonamiento y resolución de tareas, especialmente orientadas a empresas y a la investigación científica, se vieron empañadas por cuestionamientos sobre las fuentes utilizadas para responder consultas de los usuarios.
Según una investigación publicada por The Guardian, el modelo citó artículos de Grokipedia en al menos nueve ocasiones, dentro de más de una docena de preguntas formuladas sobre distintos temas. Las referencias aparecieron, principalmente, en asuntos menos conocidos o de menor circulación pública.
De acuerdo con el relevamiento, las citas no se registraron en consultas vinculadas a temas ampliamente cuestionados por la desinformación —como la insurrección en Estados Unidos, el sesgo mediático contra Donald Trump o la epidemia del VIH/SIDA—, pero sí surgieron en tópicos como conglomerados iraníes o negacionistas del Holocausto.
Para el medio británico, la inclusión de Grokipedia como fuente plantea dudas sobre la fiabilidad de la información que ofrece ChatGPT. Esto se debe a que los artículos de esa enciclopedia son generados por Grok, la inteligencia artificial desarrollada por xAI, y a que el proyecto fue concebido como una alternativa a Wikipedia, a la que Musk ha acusado reiteradamente de favorecer ideas progresistas.
Grokipedia cuenta actualmente con más de seis millones de artículos redactados por la propia IA. Si bien admite correcciones de usuarios, estas son posteriormente revisadas y aprobadas o rechazadas por el sistema automático, a diferencia del modelo colaborativo de Wikipedia, donde editores humanos debaten y validan los cambios, especialmente en temas sensibles o polémicos.
Un portavoz de OpenAI explicó a The Guardian que el modelo investigado utiliza “una amplia gama de fuentes y puntos de vista disponibles públicamente”. Además, señaló que se aplican filtros de seguridad para reducir el riesgo de contenidos asociados a daños de alta gravedad y que ChatGPT muestra de forma explícita qué fuentes informaron cada respuesta mediante citas.
Según el mismo medio, OpenAI también indicó que trabaja en nuevos programas destinados a filtrar información de baja credibilidad y a detectar posibles campañas de influencia.
La investigación reveló, además, que Claude, el modelo de inteligencia artificial desarrollado por Anthropic, también incluyó referencias a Grokipedia en algunas de sus respuestas, en temas tan diversos como la producción de petróleo o las cervezas escocesas.
Consultada al respecto, Anthropic no brindó explicaciones, mientras que xAI respondió al medio británico que “los medios tradicionales mienten”.
Con información de Europa Press