Contenido creado por María Noel Dominguez
Tecnología

No lo soñé

Anthropic introduce función “Soñar” para que la IA aprenda de sus errores

Claude podrá revisar tareas pasadas y mejorar de forma autónoma en sistemas multiagente

07.05.2026 07:40

Lectura: 2'

2026-05-07T07:40:00-03:00
Compartir en

Anthropic avanza en una de las fronteras más ambiciosas del sector: sistemas capaces de mejorar su rendimiento de manera autónoma. La compañía anunció una nueva función denominada “Soñar”, integrada en su plataforma Claude Managed Agents.

Cómo funciona la “simulación de sueños”

La nueva capacidad permite a los agentes de IA:

Revisar sesiones de trabajo anteriores

Detectar patrones y errores recurrentes

Reorganizar su memoria interna

El proceso se basa en una suerte de “simulación”, donde el sistema vuelve sobre tareas pasadas para identificar aprendizajes que no emergen durante la ejecución en tiempo real.

Memoria + aprendizaje continuo

Según la empresa, la combinación de memoria y “sueños” crea un sistema más robusto:

La memoria guarda experiencias

“Soñar” las reinterpreta y optimiza

El resultado es una mejora progresiva en tareas complejas, especialmente aquellas de larga duración o que requieren múltiples pasos.

Más allá de un solo agente

La actualización incluye otras dos funciones clave:

1. “Outcomes” (resultados definidos)

Se establecen criterios claros de éxito

Un agente evalúa el resultado final

Si no cumple los estándares, el sistema reintenta automáticamente

2. Orquestación multiagente

Un agente principal divide tareas complejas

Subagentes especializados trabajan en paralelo

Todo se integra en un flujo coordinado

Estas capacidades ya están disponibles en beta pública.

Un cambio de paradigma en la IA

El desarrollo apunta a una tendencia estructural:

De modelos que responden ? a sistemas que aprenden de su experiencia

De tareas aisladas ? a procesos continuos y adaptativos

De asistencia ? a autonomía operativa

Implicancias y riesgos

El avance abre nuevas posibilidades, pero también interrogantes:

¿Hasta qué punto deben los sistemas modificar su propio comportamiento?

¿Cómo se auditan decisiones en procesos cada vez más autónomos?

¿Qué grado de control mantienen los usuarios?

Anthropic señala que los cambios en la memoria pueden ser revisados antes de aplicarse, como mecanismo de supervisión.

Con información de Europa Press