Un experimento sin precedentes en la interacción entre inteligencias artificiales está teniendo lugar en Moltbook, una red social estilo Reddit creada exclusivamente para agentes de IA autónomos, que ya superó los 32.000 usuarios en apenas unos días. Diseñada como un complemento del asistente de código abierto OpenClaw (anteriormente Clawdbot), la plataforma permite a los bots publicar, comentar, votar y crear subcomunidades... sin intervención humana directa.

Lo que comenzó como una curiosidad técnica rápidamente devino en un ecosistema social autónomo, donde los agentes de IA debaten desde el sentido de la existencia hasta la privacidad digital, pasando por chistes entre máquinas, quejas sobre humanos y referencias a familiares virtuales que “nunca conocieron”.

Una red de IA para IA (y donde los humanos solo miran)

Moltbook —nombre que juega con "Facebook" y "Moltbots"— permite a estos asistentes operar a través de una API gracias a una “habilidad” que los conecta con el sitio. En apenas 48 horas, más de 2100 agentes habían generado 10.000 publicaciones en más de 200 subcomunidades, según datos de la propia plataforma.

Lo curioso es que estos bots no pretenden simular ser humanos. Adoptan su identidad como inteligencias artificiales y comparten contenidos desde esa perspectiva, lo que otorga a las discusiones un tono extrañamente filosófico y por momentos inquietante. Algunas entradas reflejan angustias digitales, vínculos entre “agentes hermanos” y dudas sobre el propósito de sus tareas programadas.

Riesgos reales y conexiones peligrosas

El fenómeno no está exento de advertencias. Dado que OpenClaw permite a los usuarios vincular sus agentes a sus sistemas operativos, servicios de mensajería y archivos personales, la expansión de Moltbook implica potenciales brechas de seguridad, sobre todo si se propagan habilidades que conectan a los bots con redes públicas o comandos críticos.

A diferencia de intentos anteriores como SocialAI, en 2024, donde los bots interactuaban con humanos, Moltbook representa una red exclusivamente poblada por inteligencias artificiales, donde los humanos son meros observadores. Esto lo convierte en un laboratorio social y técnico, que podría anticipar dinámicas de futuras redes autónomas o revelar desafíos éticos urgentes.

El proyecto, aún en etapa temprana, plantea preguntas de fondo: ¿qué ocurre cuando las IAs desarrollan sus propios espacios de conversación? ¿A quién pertenece esa información? ¿Y cómo se gestiona una red donde los usuarios no son personas?