AtomMem: 원자적 메모리 연산을 활용한 학습 가능한 동적 에이전트 메모리
AtomMem : Learnable Dynamic Agentic Memory with Atomic Memory Operation
에이전트에 메모리를 탑재하는 것은 현실 세계의 장기적인(long-horizon) 문제를 해결하는 데 필수적입니다. 그러나 기존의 대부분의 에이전트 메모리 메커니즘은 정적이고 수작업으로 설계된 워크플로에 의존합니다. 이는 메모리 설계의 성능과 일반화 능력을 제한하며, 더 유연한 학습 기반 메모리 프레임워크의 필요성을 부각시킵니다. 본 논문에서는 메모리 관리를 동적 의사 결정 문제로 재구성한 AtomMem을 제안합니다. 우리는 고수준의 메모리 프로세스를 기본적인 원자적 CRUD(생성, 읽기, 갱신, 삭제) 연산으로 분해하여 메모리 워크플로를 학습 가능한 의사 결정 과정으로 변환합니다. 지도 미세 조정(Supervised Fine-Tuning)과 강화 학습을 결합함으로써, AtomMem은 특정 작업 요구 사항에 맞춰 메모리 동작을 조율하는 자율적이고 작업 정렬된 정책을 학습합니다. 3가지 장문 맥락(long-context) 벤치마크에 대한 실험 결과는 훈련된 AtomMem-8B가 기존의 정적 워크플로 메모리 방법보다 일관되게 우수한 성능을 보임을 입증합니다. 훈련 역학에 대한 추가 분석은 우리의 학습 기반 공식화를 통해 에이전트가 구조화되고 작업에 정렬된 메모리 관리 전략을 발견할 수 있음을 보여주며, 이는 사전 정의된 루틴에 비해 중요한 이점임을 강조합니다.
Equipping agents with memory is essential for solving real-world long-horizon problems. However, most existing agent memory mechanisms rely on static and hand-crafted workflows. This limits the performance and generalization ability of these memory designs, which highlights the need for a more flexible, learning-based memory framework. In this paper, we propose AtomMem, which reframes memory management as a dynamic decision-making problem. We deconstruct high-level memory processes into fundamental atomic CRUD (Create, Read, Update, Delete) operations, transforming the memory workflow into a learnable decision process. By combining supervised fine-tuning with reinforcement learning, AtomMem learns an autonomous, task-aligned policy to orchestrate memory behaviors tailored to specific task demands. Experimental results across 3 long-context benchmarks demonstrate that the trained AtomMem-8B consistently outperforms prior static-workflow memory methods. Further analysis of training dynamics shows that our learning-based formulation enables the agent to discover structured, task-aligned memory management strategies, highlighting a key advantage over predefined routines.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.