2604.12285v1 Apr 14, 2026 cs.AI

GAM: 계층적 그래프 기반 에이전트 메모리, LLM 에이전트를 위한

GAM: Hierarchical Graph-based Agentic Memory for LLM Agents

Wei Wang
Wei Wang
Citations: 0
h-index: 0
Xue Liu
Xue Liu
Citations: 43
h-index: 3
Yankai Chen
Yankai Chen
Citations: 334
h-index: 9
Henry Peng Zou
Henry Peng Zou
University of Illinois Chicago
Citations: 635
h-index: 14
Wujiang Xu
Wujiang Xu
Citations: 87
h-index: 4
Xinran Xu
Xinran Xu
Citations: 4
h-index: 1
Hanrong Zhang
Hanrong Zhang
Citations: 217
h-index: 3
Weizhi Zhang
Weizhi Zhang
Citations: 369
h-index: 9
Hongwei Wang
Hongwei Wang
Citations: 17
h-index: 3
Philip S. Yu
Philip S. Yu
Citations: 333
h-index: 5
Fulin Lin
Fulin Lin
Citations: 20
h-index: 2
Shaowen Chen
Shaowen Chen
Citations: 77
h-index: 5

대규모 언어 모델(LLM) 에이전트는 일관성 있는 장기 상호작용을 유지하기 위해 새로운 정보를 습득하는 것과 기존 지식을 유지하는 것 사이의 균형을 맞춰야 합니다. 현재의 통합 스트림 기반 메모리 시스템은 컨텍스트 업데이트를 용이하게 하지만, 일시적인 노이즈로부터의 간섭에 취약합니다. 반면, 분산된 구조화된 메모리 아키텍처는 강력한 지식 보존 기능을 제공하지만, 종종 변화하는 내러티브에 적응하는 데 어려움을 겪습니다. 이러한 문제를 해결하기 위해, 우리는 메모리 인코딩과 통합을 명시적으로 분리하여 빠른 컨텍스트 인식과 안정적인 지식 보존 간의 충돌을 효과적으로 해결하는 계층적 그래프 기반 에이전트 메모리 프레임워크인 GAM을 제안합니다. 우리는 지속적인 대화를 이벤트 진행 그래프로 분리하고 의미 변화가 발생할 때만 토픽 연관 네트워크에 통합함으로써 간섭을 최소화하면서 장기적인 일관성을 유지합니다. 또한, 컨텍스트 정확도를 향상시키기 위해 그래프 기반의 다중 요인 검색 전략을 도입했습니다. LoCoMo 및 LongDialQA 데이터셋에 대한 실험 결과, 제안하는 방법은 추론 정확도와 효율성 모두에서 최첨단 기준 성능을 지속적으로 능가하는 것으로 나타났습니다.

Original Abstract

To sustain coherent long-term interactions, Large Language Model (LLM) agents must navigate the tension between acquiring new information and retaining prior knowledge. Current unified stream-based memory systems facilitate context updates but remain vulnerable to interference from transient noise. Conversely, discrete structured memory architectures provide robust knowledge retention but often struggle to adapt to evolving narratives. To address this, we propose GAM, a hierarchical Graph-based Agentic Memory framework that explicitly decouples memory encoding from consolidation to effectively resolve the conflict between rapid context perception and stable knowledge retention. By isolating ongoing dialogue in an event progression graph and integrating it into a topic associative network only upon semantic shifts, our approach minimizes interference while preserving long-term consistency. Additionally, we introduce a graph-guided, multi-factor retrieval strategy to enhance context precision. Experiments on LoCoMo and LongDialQA indicate that our method consistently outperforms state-of-the-art baselines in both reasoning accuracy and efficiency.

2 Citations
0 Influential
7 Altmetric
37.0 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!