Robot agente de IA
Robot agente de IA

Anthropic acaba de anunciar una actualización para sus agentes de IA que cambia la forma en que los sistemas aprenden. La empresa detrás de Claude reveló varias funciones a Managed Agents, su infraestructura para ejecutar agentes de forma autónoma. La más llamativa tiene un nombre que no esperarías en el contexto de la inteligencia artificial: soñar.

Según Anthropic, la función «Dreaming» es exactamente lo que sugiere su nombre. Durante los periodos en que el agente no está procesando tareas, el sistema revisa las sesiones recientes, identifica patrones en lo que hizo bien y en lo que falló, y actualiza su memoria con esas observaciones. Este proceso es programado y se lleva a cabo mientras la IA no está activa.

La compañía basa su nuevo sistema en lo que experimentan los seres humanos cada noche. Igual que el cerebro consolida recuerdos y refuerza conexiones mientras dormimos, el agente reorganiza lo que ha aprendido entre sesiones. Los creadores de Claude afirman que la combinación de memoria y sueño permite que los agentes mejoren solos con el tiempo.

Dreaming, la nueva función de "sueño" para los agentes de IA de Anthropic.

De acuerdo con una publicación en su web, Anthropic menciona que el enfoque del sueño resuelve un problema habitual. Cuando un agente individual trabaja en una sola tarea, difícilmente puede detectar patrones que se repiten a lo largo de muchas sesiones diferentes. «Dreaming» puede encontrar errores recurrentes o flujos de trabajo que el agente tiende a repetir, incluso cuando distintos agentes de un mismo equipo comparten preferencias o metodologías similares.

En cuanto al control que tienes sobre el proceso, puedes elegir entre dejar que todo funcione de forma automática o revisar los cambios antes de que se escriban en la memoria del agente. De momento, «Dreaming» está disponible en fase de investigación para los desarrolladores que soliciten acceso en la plataforma de Claude.

Anthropic apuesta por IAs que sueñan, se califican unas a otras y se dividen el trabajo

Junto con la función de sueño, Anthropic ha lanzado dos características que también apuntan a hacer los agentes más autónomos y confiables. La primera se llama «Outcomes» y se basa en el concepto de que el agente trabaja mejor cuando sabe que lo está haciendo bien.

Con esta función puedes definir una rúbrica de éxito para una tarea concreta, y un agente evaluador independiente, compara el resultado obtenido contra esos criterios. Si algo no encaja, el evaluador señala qué falla y el agente hace otra pasada. El proceso se repite hasta que el resultado cumple el estándar definido, sin que ninguna persona tenga que revisar cada intento.

Anthropic indica que «Outcomes» es especialmente útil en tareas que exigen atención al detalle o coberturas exhaustivas. Según sus pruebas internas, la función mejoró el éxito en tareas hasta en un 10% con respecto a los prompts convencionales.

Por último, la plataforma recibirá una característica de orquestación multiagente. Esta se aplica en los casos donde una tarea es demasiado compleja y extensa como para dejársela a un único agente. Cuando esto ocurre, un agente principal puede dividirla en partes y asignársela a agentes especializados que trabajan en paralelo.

Cada uno tiene su propio modelo, instrucciones y herramientas. El agente principal mantiene el control general y puede consultar el estado de los demás durante el proceso. Todo queda registrado en la consola de Claude, donde puedes ver exactamente qué hizo cada agente, en qué orden y por qué.

A diferencia de Dreaming, las funciones de Outcomes y orquestación multiagente ya se encuentran disponibles en beta pública en la plataforma Managed Agents de Anthropic.

Seguir leyendo: La IA de Anthropic (Claude) ya es capaz de «soñar» para aprender sola

Ver fuente