AMA: 다중 에이전트 협업을 통한 적응형 메모리
AMA: Adaptive Memory via Multi-Agent Collaboration
거대 언어 모델(LLM) 에이전트의 급격한 발전으로 인해 일관된 장기 상호작용과 복잡한 추론을 지원하기 위한 견고한 메모리 시스템의 필요성이 대두되었습니다. LLM의 강력한 성능에 힘입어 최근 연구의 초점은 단순한 문맥 확장에서 전용 에이전트 메모리 시스템 개발로 이동했습니다. 그러나 기존 접근 방식들은 일반적으로 고정된 검색 입도(granularity), 축적 위주의 유지 관리 전략, 세밀하지 못한 업데이트 메커니즘에 의존합니다. 이러한 설계 선택은 저장된 정보와 작업별 추론 요구 사항 간의 지속적인 불일치를 초래하며, 시간이 지남에 따라 논리적 불일치가 무분별하게 축적되는 결과를 낳습니다. 이러한 문제를 해결하기 위해, 우리는 협력하는 에이전트들을 활용하여 다양한 입도에서 메모리를 관리하는 새로운 프레임워크인 '다중 에이전트 협업을 통한 적응형 메모리(AMA)'를 제안합니다. AMA는 검색 입도를 작업 복잡도에 맞춰 동적으로 조정하는 계층적 메모리 설계를 채택했습니다. 구체적으로, 생성자(Constructor)와 검색기(Retriever)가 협력하여 다중 입도 메모리 구축과 적응형 쿼리 라우팅을 수행합니다. 판별자(Judge)는 검색된 콘텐츠의 관련성과 일관성을 검증하며, 증거가 불충분할 경우 반복 검색을 트리거하고 논리적 충돌이 감지되면 갱신자(Refresher)를 호출합니다. 이후 갱신자(Refresher)는 표적 업데이트를 수행하거나 오래된 항목을 제거하여 메모리 일관성을 강화합니다. 까다로운 장문 문맥 벤치마크에 대한 광범위한 실험 결과, AMA는 전체 문맥 방식 대비 토큰 소비를 약 80% 절감하면서도 최신 베이스라인 모델들을 크게 능가하여, 검색 정밀도와 장기 기억 일관성을 유지하는 데 있어 그 효과를 입증했습니다.
The rapid evolution of Large Language Model (LLM) agents has necessitated robust memory systems to support cohesive long-term interaction and complex reasoning. Benefiting from the strong capabilities of LLMs, recent research focus has shifted from simple context extension to the development of dedicated agentic memory systems. However, existing approaches typically rely on rigid retrieval granularity, accumulation-heavy maintenance strategies, and coarse-grained update mechanisms. These design choices create a persistent mismatch between stored information and task-specific reasoning demands, while leading to the unchecked accumulation of logical inconsistencies over time. To address these challenges, we propose Adaptive Memory via Multi-Agent Collaboration (AMA), a novel framework that leverages coordinated agents to manage memory across multiple granularities. AMA employs a hierarchical memory design that dynamically aligns retrieval granularity with task complexity. Specifically, the Constructor and Retriever jointly enable multi-granularity memory construction and adaptive query routing. The Judge verifies the relevance and consistency of retrieved content, triggering iterative retrieval when evidence is insufficient or invoking the Refresher upon detecting logical conflicts. The Refresher then enforces memory consistency by performing targeted updates or removing outdated entries. Extensive experiments on challenging long-context benchmarks show that AMA significantly outperforms state-of-the-art baselines while reducing token consumption by approximately 80% compared to full-context methods, demonstrating its effectiveness in maintaining retrieval precision and long-term memory consistency.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.