Mem²Evolve: 공진화적 능력 확장 및 경험 증류를 통한 자기 진화 에이전트 개발
Mem$^2$Evolve: Towards Self-Evolving Agents via Co-Evolutionary Capability Expansion and Experience Distillation
대규모 언어 모델 기반 에이전트는 경험 축적 또는 새로운 자원(도구 또는 전문가 에이전트)을 동적으로 생성함으로써 자체 진화를 수행할 수 있습니다. 그러나 기존 프레임워크는 일반적으로 이러한 두 가지 진화 과정을 분리하여 다룹니다. 이러한 분리는 이들 간의 내재적인 상호 의존성을 간과합니다. 첫 번째 과정은 수동으로 정의된 정적 도구 세트에 의해 제한되며, 두 번째 과정은 경험적 지침 없이 처음부터 새로운 자원을 생성하므로, 능력 향상 및 진화 안정성이 제한됩니다. 이러한 한계를 해결하기 위해, 우리는 공진화적 능력 확장 및 경험 증류라는 새로운 패러다임을 제안합니다. 이 패러다임에 따라, 우리는 두 가지 핵심 구성 요소인 경험 메모리와 자산 메모리를 통합한 Mem²Evolve를 제안합니다. 구체적으로, Mem²Evolve는 축적된 경험을 활용하여 자원의 동적 생성을 유도하여 에이전트의 능력 공간을 확장하는 동시에, 새로운 경험을 획득하여 공진화를 달성합니다. 6가지 작업 범주 및 8가지 벤치마크에 대한 광범위한 실험 결과, Mem²Evolve는 표준 LLM보다 18.53%, 경험만으로 진화하는 에이전트보다 11.80%, 자원 생성만으로 진화하는 에이전트보다 6.46% 더 우수한 성능을 보여주며, 이는 훨씬 더 효과적이고 안정적인 자체 진화 에이전트 프레임워크임을 입증합니다. 코드: https://buaa-irip-llm.github.io/Mem2Evolve
While large language model--powered agents can self-evolve by accumulating experience or by dynamically creating new assets (i.e., tools or expert agents), existing frameworks typically treat these two evolutionary processes in isolation. This separation overlooks their intrinsic interdependence: the former is inherently bounded by a manually predefined static toolset, while the latter generates new assets from scratch without experiential guidance, leading to limited capability growth and unstable evolution. To address this limitation, we introduce a novel paradigm of co-evolutionary Capability Expansion and Experience Distillation. Guided by this paradigm, we propose the \textbf{Mem$^{\textbf{2}}$Evolve}, which integrates two core components: \textbf{Experience Memory} and \textbf{Asset Memory}. Specifically, Mem$^{2}$Evolve leverages accumulated experience to guide the dynamic creation of assets, thereby expanding the agent's capability space while simultaneously acquiring new experience to achieve co-evolution. Extensive experiments across 6 task categories and 8 benchmarks demonstrate that Mem$^{2}$Evolve achieves improvement of 18.53\% over standard LLMs, 11.80\% over agents evolving solely through experience, and 6.46\% over those evolving solely through asset creation, establishing it as a substantially more effective and stable self-evolving agent framework. Code is available at: https://buaa-irip-llm.github.io/Mem2Evolve.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.