El director ejecutivo de OpenAI, Sam Altman, lanzó una dura crítica al papel de los bots en redes sociales y plataformas digitales, al afirmar que su masificación convirtió la interacción en una experiencia “falsa”. Según el empresario, hoy resulta prácticamente imposible discernir si un mensaje fue escrito por una persona o generado por sistemas automáticos impulsados por modelos de lenguaje.
En una publicación en la red social X, Altman relató su experiencia en el foro de Reddit r/ClaudeCode, donde encontró comentarios elogiosos hacia Codex, la herramienta de programación de OpenAI que compite con la de Anthropic. Para el directivo, muchas de esas publicaciones parecían falsas, posiblemente generadas por bots, lo que le llevó a reflexionar sobre el impacto de estas prácticas en la autenticidad de Internet.
Entre la imitación y la distorsión
Altman explicó que la adopción de patrones de lenguaje similares a los de los grandes modelos de lenguaje (LLM) está modificando incluso la forma en que los propios usuarios humanos escriben en línea. El resultado es que los foros y redes sociales presentan interacciones “homogéneas”, con un estilo cada vez más difícil de diferenciar del producido por IA.
El CEO de OpenAI también señaló otros factores que refuerzan esta sensación de artificialidad:
- El comportamiento de los usuarios Extremely Online, altamente conectados, que se retroalimentan en patrones extremos de consumo y opinión.
- La presión por la monetización en redes sociales, que incentiva la creación de contenido diseñado para maximizar la interacción, sin importar su origen.
- La práctica del astroturfing, donde campañas organizadas usan cuentas falsas y bots para simular apoyo ciudadano espontáneo.
El eco de la “teoría del Internet muerto”
Altman fue más allá al vincular estas observaciones con la llamada teoría del Internet muerto, que sostiene que gran parte de la red estaría dominada hoy por algoritmos y cuentas automatizadas, desplazando la interacción humana real. Aunque en el pasado descartaba esa hipótesis, ahora admite que cada vez observa “muchas cuentas de Twitter administradas por LLM”.
“El efecto final es que, de alguna manera, Twitter o Reddit con IA se sienten muy falsos, de una forma que realmente no ocurría hace un año o dos”, resumió Altman.
Una advertencia con doble filo
El comentario del CEO resulta llamativo porque proviene precisamente de quien lidera una de las empresas más influyentes en el desarrollo de IA generativa, base tecnológica de muchos de los bots que hoy circulan en la red. Su advertencia refleja una contradicción: OpenAI impulsa las herramientas que transforman la interacción digital, al tiempo que reconoce sus efectos en la pérdida de autenticidad de las comunidades en línea.
Con información de Europa Pres