MemSkill: 자기 진화형 에이전트를 위한 학습 및 진화 가능한 기억 기술
MemSkill: Learning and Evolving Memory Skills for Self-Evolving Agents
대부분의 대규모 언어 모델(LLM) 에이전트 메모리 시스템은 메모리 추출을 위한 소수의 정적, 수동으로 설계된 연산에 의존합니다. 이러한 고정된 절차는 저장해야 할 내용과 메모리를 수정하는 방법에 대한 인간의 선입견을 하드 코딩하므로, 다양한 상호 작용 패턴에서 경직성을 보이며 긴 기록에서 비효율적입니다. 이에, 본 연구에서는 이러한 연산을 학습 가능하고 진화 가능한 메모리 기술로 재구성하는 **MemSkill**을 제안합니다. MemSkill은 상호 작용 기록에서 정보를 추출, 통합 및 제거하기 위한 구조화되고 재사용 가능한 루틴인 메모리 기술을 사용합니다. 에이전트 기술 설계 철학에 영감을 받아, MemSkill은 관련 기술의 작은 집합을 선택하는 '컨트롤러'를 사용하며, LLM 기반 '실행기'는 선택된 기술에 따라 메모리를 생성합니다. MemSkill은 기술 선택 학습 외에도, 선택된 기술이 잘못되거나 불완전한 메모리를 생성하는 어려운 경우를 주기적으로 검토하고, 기술 세트를 개선하기 위해 수정 사항과 새로운 기술을 제안하는 '디자이너'를 도입합니다. MemSkill은 기술 선택 정책과 기술 세트 자체를 모두 개선하는 폐쇄 루프 절차를 형성합니다. LoCoMo, LongMemEval, HotpotQA 및 ALFWorld에서의 실험 결과, MemSkill은 강력한 기본 모델보다 우수한 성능을 보이며 다양한 환경에서 잘 일반화됩니다. 추가 분석을 통해 기술이 어떻게 진화하는지 파악하고, LLM 에이전트를 위한 보다 적응적이고 자기 진화적인 메모리 관리 방안에 대한 통찰력을 제공합니다.
Most Large Language Model (LLM) agent memory systems rely on a small set of static, hand-designed operations for extracting memory. These fixed procedures hard-code human priors about what to store and how to revise memory, making them rigid under diverse interaction patterns and inefficient on long histories. To this end, we present \textbf{MemSkill}, which reframes these operations as learnable and evolvable memory skills, structured and reusable routines for extracting, consolidating, and pruning information from interaction traces. Inspired by the design philosophy of agent skills, MemSkill employs a \emph{controller} that learns to select a small set of relevant skills, paired with an LLM-based \emph{executor} that produces skill-guided memories. Beyond learning skill selection, MemSkill introduces a \emph{designer} that periodically reviews hard cases where selected skills yield incorrect or incomplete memories, and evolves the skill set by proposing refinements and new skills. Together, MemSkill forms a closed-loop procedure that improves both the skill-selection policy and the skill set itself. Experiments on LoCoMo, LongMemEval, HotpotQA, and ALFWorld demonstrate that MemSkill improves task performance over strong baselines and generalizes well across settings. Further analyses shed light on how skills evolve, offering insights toward more adaptive, self-evolving memory management for LLM agents.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.