2604.21748v1 Apr 23, 2026 cs.CL

StructMem: LLM의 장기 행동을 위한 구조화된 메모리

StructMem: Structured Memory for Long-Horizon Behavior in LLMs

Lun Du
Lun Du
Citations: 158
h-index: 5
Yunzhi Yao
Yunzhi Yao
Zhejiang University;Shandong University
Citations: 2,971
h-index: 21
Shumin Deng
Shumin Deng
Citations: 5,732
h-index: 38
Yuqi Zhu
Yuqi Zhu
Citations: 574
h-index: 7
Buqiang Xu
Buqiang Xu
Citations: 4
h-index: 1
Yijun Chen
Yijun Chen
Citations: 9
h-index: 2
Jizhan Fang
Jizhan Fang
Citations: 62
h-index: 3
R. Zhong
R. Zhong
Citations: 3
h-index: 1

장기적인 대화형 에이전트는 시간적 추론과 다중 홉 질문 답변을 지원하기 위해, 개별 사실이 아닌 사건 간의 관계를 포착하는 메모리 시스템이 필요합니다. 현재의 접근 방식은 근본적인 트레이드오프에 직면합니다. 평탄한 메모리는 효율적이지만 관계 구조를 모델링하지 못하며, 그래프 기반 메모리는 구조화된 추론을 가능하게 하지만 비용이 많이 들고 불안정합니다. 이러한 문제를 해결하기 위해, 우리는 사건 수준의 연결을 유지하고 사건 간의 연결을 유도하는 구조 강화 계층적 메모리 프레임워크인 extbf{StructMem}을 제안합니다. StructMem은 이중 관점을 시간적으로 고정하고 주기적인 의미 통합을 수행하여 exttt{LoCoMo} 데이터셋에서 시간적 추론 및 다중 홉 성능을 향상시키고, 동시에 기존 메모리 시스템에 비해 토큰 사용량, API 호출 및 런타임을 크게 줄입니다. 자세한 내용은 https://github.com/zjunlp/LightMem 에서 확인할 수 있습니다.

Original Abstract

Long-term conversational agents need memory systems that capture relationships between events, not merely isolated facts, to support temporal reasoning and multi-hop question answering. Current approaches face a fundamental trade-off: flat memory is efficient but fails to model relational structure, while graph-based memory enables structured reasoning at the cost of expensive and fragile construction. To address these issues, we propose \textbf{StructMem}, a structure-enriched hierarchical memory framework that preserves event-level bindings and induces cross-event connections. By temporally anchoring dual perspectives and performing periodic semantic consolidation, StructMem improves temporal reasoning and multi-hop performance on \texttt{LoCoMo}, while substantially reducing token usage, API calls, and runtime compared to prior memory systems, see https://github.com/zjunlp/LightMem .

0 Citations
0 Influential
72.296469598418 Altmetric
361.5 Score
Original PDF
779

AI Analysis

Korean Summary

이 논문은 대형 언어 모델(LLM) 기반의 장기 대화 에이전트를 위한 새로운 계층적 메모리 프레임워크인 'StructMem'을 제안합니다. 기존 메모리 시스템은 연산은 빠르나 복잡한 관계 추론이 불가능한 '평면 메모리(Flat Memory)'와, 추론 능력은 좋지만 구축 비용이 매우 비싸고 노이즈에 취약한 '그래프 메모리(Graph Memory)'라는 양극단의 문제를 안고 있었습니다. StructMem은 이 딜레마를 해결하기 위해 정보의 단위를 엄격한 그래프 스키마 대신 '시간적으로 고정된 관계형 이벤트'로 정의합니다. 사실적 내용과 대인 관계적 맥락을 함께 추출하는 이중 관점 추출을 사용하며, 주기적인 의미론적 통합(Semantic Consolidation)을 통해 과거 이벤트 간의 인과 및 시간적 연결 고리를 자연어 서사로 합성합니다. 그 결과, 토큰 사용량과 API 호출, 실행 시간을 기존 대비 획기적으로 줄이면서도 복잡한 다중 홉(Multi-hop) 및 시간 추론 성능에서 최고 수준(SOTA)을 달성했습니다.

Key Innovations

  • 이중 관점 추출(Dual-Perspective Extraction): 발화에서 단순한 사실(Fact)뿐만 아니라 화자 간의 상호작용, 감정, 인과적 맥락(Relation)을 동시에 추출하여 맥락을 온전히 보존
  • 시간적 앵커링(Temporal Anchoring): 모든 추출된 메모리 엔트리에 원본 타임스탬프를 부여하여 정보 간의 시간적 순서와 묶음을 구조적으로 유지
  • 교차 이벤트 통합(Cross-Event Consolidation): 메모리를 매 턴마다 무겁게 업데이트하는 대신, 일정 기간 버퍼링한 후 시맨틱 검색을 통해 과거의 관련 이벤트들과 일괄적으로 엮어 새로운 상위 수준의 관계적 서사를 합성
  • 자연어 기반의 유연한 구조화: 기존 지식 그래프(Knowledge Graph)의 경직된 엔티티-관계 트리플렛(Triplet) 추출이 유발하는 정보 손실과 오류 전파 문제를 없애고 자연어 형태의 유연한 계층 구조 채택

Learning & Inference Impact

이 구조는 모델의 가중치를 업데이트하는 별도의 학습(Training) 과정 없이 시스템 및 프롬프트 아키텍처 수준에서 즉시 적용 가능합니다. 추론(Inference) 과정에는 극적인 긍정적 영향을 미칩니다. 시스템 효율성 측면에서, 기존 그래프 기반 메모리는 매 턴마다 엔티티 추출, 중복 제거, 관계 형성 등 다중 LLM 호출이 필요하여 대화가 길어질수록 연산량이 기하급수적으로 증가했습니다. 반면 StructMem은 이벤트를 모아두었다가 주기적으로 일괄 처리(Batch processing)하므로 API 호출 수와 토큰 사용량, 런타임을 대폭 감소시킵니다. 응답 생성(추론 성능) 측면에서는, 독립된 파편적 사실들을 단순히 검색하는 것을 넘어 사전에 통합된 '이벤트 간 연결성(서사)'을 검색할 수 있게 됨으로써, LLM이 명시적으로 주어지지 않은 암시적 공동 참여나 시간적 선후 관계를 정확히 파악하는 다중 홉 추론 능력을 크게 강화합니다.

Technical Difficulty

중급

Estimated implementation complexity based on methodology.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!