2604.10923v1 Apr 13, 2026 cs.CL

Mem²Evolve: 공진화적 능력 확장 및 경험 증류를 통한 자기 진화 에이전트 개발

Mem$^2$Evolve: Towards Self-Evolving Agents via Co-Evolutionary Capability Expansion and Experience Distillation

Wei Lin
Wei Lin
Citations: 195
h-index: 7
Hongru Wang
Hongru Wang
The Chinese University of Hong Kong, University of Edinburgh
Citations: 2,219
h-index: 24
Yuhang Guo
Yuhang Guo
Citations: 9
h-index: 2
Ying Shan
Ying Shan
Citations: 244
h-index: 2
Yunpu Ma
Yunpu Ma
Citations: 12
h-index: 1
Xiangrong Zhu
Xiangrong Zhu
Citations: 6
h-index: 2
Yunhong Wang
Yunhong Wang
Citations: 9
h-index: 2
Zeming Liu
Zeming Liu
Citations: 38
h-index: 4
Zihao Cheng
Zihao Cheng
Citations: 28
h-index: 3
Xinyi Wang
Xinyi Wang
Citations: 223
h-index: 2

대규모 언어 모델 기반 에이전트는 경험 축적 또는 새로운 자원(도구 또는 전문가 에이전트)을 동적으로 생성함으로써 자체 진화를 수행할 수 있습니다. 그러나 기존 프레임워크는 일반적으로 이러한 두 가지 진화 과정을 분리하여 다룹니다. 이러한 분리는 이들 간의 내재적인 상호 의존성을 간과합니다. 첫 번째 과정은 수동으로 정의된 정적 도구 세트에 의해 제한되며, 두 번째 과정은 경험적 지침 없이 처음부터 새로운 자원을 생성하므로, 능력 향상 및 진화 안정성이 제한됩니다. 이러한 한계를 해결하기 위해, 우리는 공진화적 능력 확장 및 경험 증류라는 새로운 패러다임을 제안합니다. 이 패러다임에 따라, 우리는 두 가지 핵심 구성 요소인 경험 메모리와 자산 메모리를 통합한 Mem²Evolve를 제안합니다. 구체적으로, Mem²Evolve는 축적된 경험을 활용하여 자원의 동적 생성을 유도하여 에이전트의 능력 공간을 확장하는 동시에, 새로운 경험을 획득하여 공진화를 달성합니다. 6가지 작업 범주 및 8가지 벤치마크에 대한 광범위한 실험 결과, Mem²Evolve는 표준 LLM보다 18.53%, 경험만으로 진화하는 에이전트보다 11.80%, 자원 생성만으로 진화하는 에이전트보다 6.46% 더 우수한 성능을 보여주며, 이는 훨씬 더 효과적이고 안정적인 자체 진화 에이전트 프레임워크임을 입증합니다. 코드: https://buaa-irip-llm.github.io/Mem2Evolve

Original Abstract

While large language model--powered agents can self-evolve by accumulating experience or by dynamically creating new assets (i.e., tools or expert agents), existing frameworks typically treat these two evolutionary processes in isolation. This separation overlooks their intrinsic interdependence: the former is inherently bounded by a manually predefined static toolset, while the latter generates new assets from scratch without experiential guidance, leading to limited capability growth and unstable evolution. To address this limitation, we introduce a novel paradigm of co-evolutionary Capability Expansion and Experience Distillation. Guided by this paradigm, we propose the \textbf{Mem$^{\textbf{2}}$Evolve}, which integrates two core components: \textbf{Experience Memory} and \textbf{Asset Memory}. Specifically, Mem$^{2}$Evolve leverages accumulated experience to guide the dynamic creation of assets, thereby expanding the agent's capability space while simultaneously acquiring new experience to achieve co-evolution. Extensive experiments across 6 task categories and 8 benchmarks demonstrate that Mem$^{2}$Evolve achieves improvement of 18.53\% over standard LLMs, 11.80\% over agents evolving solely through experience, and 6.46\% over those evolving solely through asset creation, establishing it as a substantially more effective and stable self-evolving agent framework. Code is available at: https://buaa-irip-llm.github.io/Mem2Evolve.

2 Citations
0 Influential
12 Altmetric
62.0 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!