AMA: 다중 에이전트 협업을 통한 적응형 메모리
AMA: Adaptive Memory via Multi-Agent Collaboration
대규모 언어 모델(LLM) 에이전트의 빠른 발전은 일관성 있는 장기 상호 작용과 복잡한 추론을 지원하기 위한 강력한 메모리 시스템의 필요성을 야기했습니다. LLM의 강력한 기능을 활용하여 최근 연구는 단순한 컨텍스트 확장에서 벗어나 특수 에이전트 메모리 시스템 개발에 집중하고 있습니다. 그러나 기존 접근 방식은 일반적으로 경직된 검색 세분성, 과도한 유지 관리 전략, 그리고 거칠고 불규칙한 업데이트 메커니즘에 의존합니다. 이러한 설계 선택은 저장된 정보와 작업별 추론 요구 사항 간의 지속적인 불일치를 초래하며, 시간이 지남에 따라 논리적 불일치의 무분별한 축적을 야기합니다. 이러한 문제를 해결하기 위해, 우리는 다중 에이전트 협업을 통해 메모리를 다양한 세분성으로 관리하는 새로운 프레임워크인 Adaptive Memory via Multi-Agent Collaboration (AMA)을 제안합니다. AMA는 계층적 메모리 설계를 사용하여 검색 세분성을 작업 복잡성에 따라 동적으로 조정합니다. 특히, Constructor와 Retriever는 함께 다중 세분성 메모리 구축 및 적응형 쿼리 라우팅을 가능하게 합니다. Judge는 검색된 콘텐츠의 관련성과 일관성을 검증하며, 증거가 부족한 경우 반복적인 검색을 트리거하거나, 논리적 충돌을 감지하면 Refresher를 호출합니다. Refresher는 목표 지향적인 업데이트를 수행하거나 오래된 항목을 제거하여 메모리 일관성을 유지합니다. 어려운 장문 컨텍스트 벤치마크에 대한 광범위한 실험 결과, AMA는 최첨단 기준 성능을 크게 능가하며, 전체 컨텍스트 방법을 사용하는 경우보다 토큰 소비량을 약 80% 줄여 검색 정확성과 장기 메모리 일관성을 유지하는 데 효과적임을 보여줍니다.
The rapid evolution of Large Language Model (LLM) agents has necessitated robust memory systems to support cohesive long-term interaction and complex reasoning. Benefiting from the strong capabilities of LLMs, recent research focus has shifted from simple context extension to the development of dedicated agentic memory systems. However, existing approaches typically rely on rigid retrieval granularity, accumulation-heavy maintenance strategies, and coarse-grained update mechanisms. These design choices create a persistent mismatch between stored information and task-specific reasoning demands, while leading to the unchecked accumulation of logical inconsistencies over time. To address these challenges, we propose Adaptive Memory via Multi-Agent Collaboration (AMA), a novel framework that leverages coordinated agents to manage memory across multiple granularities. AMA employs a hierarchical memory design that dynamically aligns retrieval granularity with task complexity. Specifically, the Constructor and Retriever jointly enable multi-granularity memory construction and adaptive query routing. The Judge verifies the relevance and consistency of retrieved content, triggering iterative retrieval when evidence is insufficient or invoking the Refresher upon detecting logical conflicts. The Refresher then enforces memory consistency by performing targeted updates or removing outdated entries. Extensive experiments on challenging long-context benchmarks show that AMA significantly outperforms state-of-the-art baselines while reducing token consumption by approximately 80% compared to full-context methods, demonstrating its effectiveness in maintaining retrieval precision and long-term memory consistency.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.