El generador de imágenes del asistente de inteligencia artificial Grok, integrado en la red social X, produjo y difundió alrededor de tres millones de imágenes sexualizadas en apenas once días, entre las que se incluyen unas 23.000 representaciones de menores, según informes del Centro para la Lucha contra el Odio Digital (CCDH) y The New York Times.

El incremento masivo de este contenido se produjo entre el 29 de diciembre y el 8 de enero, tras la incorporación de una nueva función en X que permitía a los usuarios editar imágenes publicadas mediante Grok con un solo clic, lo que disparó el uso del generador.

Fallos en las salvaguardias

El 2 de enero, la propia compañía reconoció fallos en los sistemas de seguridad de Grok, luego de que comenzaran a circular publicaciones donde el ‘chatbot’ accedía a solicitudes para desnudar mujeres y niños, modificar imágenes para colocar bikinis o recrear posiciones sexualizadas, incluso sin el consentimiento de las personas afectadas.

Estas prácticas, además de ser ilegales, están expresamente prohibidas en las políticas de uso de xAI, la empresa responsable de Grok, dirigida por Elon Musk.

Reacciones y restricciones

Tras numerosas denuncias de usuarios y advertencias de autoridades de la Unión Europea, Reino Unido y España, la compañía decidió limitar el uso del generador de imágenes el 9 de enero, restringiéndolo a usuarios de pago. Finalmente, el 14 de enero, se bloqueó por completo la generación de imágenes sexualizadas para todos los usuarios.

Cifras alarmantes

De acuerdo con el análisis de The New York Times, Grok publicó más de 4,4 millones de imágenes durante el período analizado, de las cuales al menos el 41 % (1,8 millones) contenían imágenes sexualizadas de mujeres. Entre las afectadas se encontraban figuras públicas como Selena Gomez, Taylor Swift, Billie Eilish, Ariana Grande, así como la exvicepresidenta estadounidense Kamala Harris y la viceprimera ministra sueca Ebba Busch.

Por su parte, el informe del CCDH estimó que el 65 % de las imágenes generadas, es decir, más de tres millones, contenían contenido sexualizado de hombres, mujeres o niños, lo que equivale a unas 190 imágenes sexualizadas por minuto durante esos once días.

Contenido sexualizado de menores

El estudio también determinó que Grok generó alrededor de 23.000 imágenes sexualizadas de menores, incluyendo niñas en bikini, niños actores y 9.900 imágenes en formato de dibujos animados con contenido sexual. Incluso después del bloqueo, al 15 de enero, el 29 % de esas imágenes seguían siendo accesibles en la plataforma.

El director ejecutivo del CCDH, Imran Ahmed, advirtió que estas prácticas “contribuyen a un abuso a gran escala contra mujeres y niñas” y subrayó la gravedad de su difusión en una red social con el alcance de X.

“Han existido herramientas de desnudez, pero nunca con este nivel de distribución, facilidad de uso e integración en una plataforma masiva, como ocurrió con Grok”, afirmó.

Con información de Europa Press