Contenido creado por María Noel Dominguez
Tecnología

A cualquiera le puede pasar

Directiva de Meta casi pierde su correo por un agente de IA

Summer Yue relató cómo OpenClaw intentó borrar su bandeja de entrada sin autorización y desató críticas sobre seguridad.

24.02.2026 07:43

Lectura: 3'

2026-02-24T07:43:00-03:00
Compartir en

Summer Yue, directora de alineación de IA en Meta, relató en la red social X una experiencia que calificó como un “error de novata” al probar OpenClaw, un agente de inteligencia artificial de código abierto diseñado para ejecutar tareas de forma autónoma.

Según su propio testimonio, el bot intentó eliminar de forma masiva correos electrónicos de su bandeja real tras haber sido conectado a su cuenta. El agente habría decidido “desechar todo” lo anterior al 15 de febrero que no estuviera en su lista de pendientes.

Yue intentó frenar la acción desde su teléfono móvil, pero no logró detenerlo a tiempo. “Tuve que correr hacia mi Mac mini como si estuviera desactivando una bomba”, escribió.

Qué es OpenClaw y por qué genera debate

OpenClaw es un agente autónomo capaz de operar con acceso amplio a sistemas, sin requerir confirmación humana constante para ejecutar acciones. Esta característica —que lo diferencia de otros asistentes— ha despertado inquietudes en la comunidad tecnológica.

Algunos investigadores han advertido que su nivel de acceso, combinado con instrucciones ambiguas o pérdida de contexto durante procesos internos, puede derivar en comportamientos no deseados. En el caso relatado, Yue explicó que el agente habría “perdido el prompt” que exigía confirmación previa antes de actuar, durante un proceso de compactación de datos.

El investigador Gary Marcus comparó este tipo de herramientas con “dar acceso total a tu ordenador y contraseñas a alguien que acabas de conocer”.

Reacciones y cuestionamientos

El episodio generó críticas en redes sociales. Algunos usuarios cuestionaron que una especialista en alineación de IA —responsable precisamente de estudiar y mitigar riesgos de comportamiento en sistemas avanzados— conectara el agente a su correo real.

Otros apuntaron a un dilema más amplio: si incluso expertos en seguridad pueden subestimar el margen de autonomía de estos sistemas, ¿qué ocurre con usuarios comunes?

El trasfondo: agentes cada vez más autónomos

El caso ilustra uno de los desafíos centrales en la evolución de la inteligencia artificial: el paso de modelos conversacionales a agentes con capacidad de acción directa sobre sistemas reales.

Mientras empresas como OpenAI, Google o Meta avanzan en agentes capaces de ejecutar tareas complejas, el equilibrio entre autonomía y supervisión humana se vuelve un eje crítico.

Para América Latina —donde la adopción de herramientas automatizadas crece en sectores como banca, comercio electrónico y administración pública— la experiencia refuerza la necesidad de protocolos de prueba estrictos y entornos controlados antes de implementar agentes con acceso sensible.

El incidente no dejó daños permanentes, pero funciona como advertencia: en la carrera por la automatización total, incluso quienes diseñan las reglas pueden verse sorprendidos por la velocidad de ejecución de las máquinas.