2601.02163v2 Jan 05, 2026 cs.AI

EverMemOS: 구조화된 장기 추론을 위한 자기 조직화 메모리 운영 체제

EverMemOS: A Self-Organizing Memory Operating System for Structured Long-Horizon Reasoning

Chuanrui Hu
Chuanrui Hu
Citations: 4
h-index: 1
Xingze Gao
Xingze Gao
Citations: 4
h-index: 1
Zuyi Zhou
Zuyi Zhou
Citations: 4
h-index: 1
Dannong Xu
Dannong Xu
Citations: 4
h-index: 1
Yi Bai
Yi Bai
Citations: 6
h-index: 2
Xintong Li
Xintong Li
Citations: 27
h-index: 3
Tong Li
Tong Li
Citations: 30
h-index: 3
Lidong Bing
Lidong Bing
Citations: 13,645
h-index: 51
Yafeng Deng
Yafeng Deng
Citations: 5
h-index: 1
Chong Zhang
Chong Zhang
Citations: 114
h-index: 3
Hui Zhang
Hui Zhang
Citations: 21
h-index: 3

대규모 언어 모델(LLM)이 장기 상호작용 에이전트로 점점 더 많이 활용되고 있지만, 제한된 컨텍스트 윈도우로 인해 긴 상호작용 동안 일관된 행동을 유지하기 어렵다. 기존 메모리 시스템은 고립된 기록을 저장하고 파편화된 정보를 검색하는 데 그쳐, 변화하는 사용자 상태를 통합하고 충돌을 해결하는 데 한계가 있다. 이에 우리는 계산 메모리를 위해 엔그램(engram)에서 영감을 받은 수명 주기를 구현하는 자기 조직화 메모리 운영 체제인 EverMemOS를 제안한다. '일화적 흔적 형성(Episodic Trace Formation)' 과정은 대화 스트림을 일화적 흔적, 원자적 사실, 시간 제한적 예지(Foresight) 신호를 포착하는 MemCell로 변환한다. '의미적 통합(Semantic Consolidation)'은 MemCell을 주제별 MemScene으로 조직화하여 안정적인 의미 구조를 정제하고 사용자 프로필을 업데이트한다. '재구성적 회상(Reconstructive Recollection)'은 후속 추론에 필요한 충분한 컨텍스트를 구성하기 위해 MemScene이 유도하는 에이전트 검색을 수행한다. LoCoMo 및 LongMemEval에서의 실험 결과, EverMemOS는 메모리 증강 추론 작업에서 최고 수준(SOTA)의 성능을 달성했다. 또한 PersonaMem v2에 대한 프로필 연구와 사용자 프로파일링 및 예지 기능과 같은 채팅 중심 기능을 보여주는 질적 사례 연구를 보고한다. 코드는 https://github.com/EverMind-AI/EverMemOS 에서 이용 가능하다.

Original Abstract

Large Language Models (LLMs) are increasingly deployed as long-term interactive agents, yet their limited context windows make it difficult to sustain coherent behavior over extended interactions. Existing memory systems often store isolated records and retrieve fragments, limiting their ability to consolidate evolving user states and resolve conflicts. We introduce EverMemOS, a self-organizing memory operating system that implements an engram-inspired lifecycle for computational memory. Episodic Trace Formation converts dialogue streams into MemCells that capture episodic traces, atomic facts, and time-bounded Foresight signals. Semantic Consolidation organizes MemCells into thematic MemScenes, distilling stable semantic structures and updating user profiles. Reconstructive Recollection performs MemScene-guided agentic retrieval to compose the necessary and sufficient context for downstream reasoning. Experiments on LoCoMo and LongMemEval show that EverMemOS achieves state-of-the-art performance on memory-augmented reasoning tasks. We further report a profile study on PersonaMem v2 and qualitative case studies illustrating chat-oriented capabilities such as user profiling and Foresight. Code is available at https://github.com/EverMind-AI/EverMemOS.

4 Citations
0 Influential
85.206477854533 Altmetric
430.0 Score

AI Analysis

Korean Summary

이 논문은 LLM 기반 에이전트가 장기적인 상호작용에서 일관된 기억을 유지하고 복잡한 추론을 수행할 수 있도록 돕는 자기 조직화 메모리 운영 체제인 'EverMemOS'를 제안합니다. 기존의 파편화된 메모리 저장 방식의 한계를 극복하기 위해, 생물학적 기억 메커니즘(Engram)에서 영감을 받아 메모리를 생성(Episodic Trace Formation), 통합(Semantic Consolidation), 회상(Reconstructive Recollection)하는 3단계 수명 주기를 도입했습니다. EverMemOS는 대화 데이터를 'MemCell'이라는 구조화된 단위로 변환하고, 이를 주제별 'MemScene'으로 통합하며, 추론 시에는 정보의 충분성을 검증하여 능동적으로 기억을 재구성합니다. 실험 결과, LoCoMo와 LongMemEval 벤치마크에서 기존 메모리 시스템 대비 월등한 성능(특히 멀티홉 및 시간적 추론)을 입증했습니다.

Key Innovations

  • 일화적 기억을 에피소드, 원자적 사실(Atomic Facts), 시간 제한이 있는 예지(Foresight)로 구조화하는 'MemCell' 단위 도입
  • 개별 MemCell을 의미적으로 유사한 주제끼리 묶어 상위 수준의 지식 구조인 'MemScene'으로 동적으로 클러스터링하는 '의미적 통합(Semantic Consolidation)' 메커니즘
  • 단순 검색(Retrieval)을 넘어, 검색된 정보가 질문 해결에 충분한지 스스로 검증하고 필요시 질의를 재작성하여 다시 검색하는 '재구성적 회상(Reconstructive Recollection)' 프로세스
  • 단기적인 대화 내용을 바탕으로 미래의 유효한 상태나 제약을 예측하여 저장하는 '시간 제한적 예지(Time-bounded Foresight)' 기능
  • 사용자의 명시적/암묵적 특성을 지속적으로 업데이트하고 충돌을 관리하는 동적 사용자 프로파일링

Learning & Inference Impact

EverMemOS는 모델의 가중치를 직접 학습시키지는 않으나, 추론(Inference) 단계에서 LLM의 장기 기억 능력을 획기적으로 향상시킵니다. 첫째, 긴 문맥을 단순히 모델에 입력할 때 발생하는 'Lost-in-the-Middle' 현상을 방지하고, 구조화된 'MemScene'을 통해 파편화된 정보들을 연결하여 복잡한 멀티홉 추론을 가능하게 합니다. 둘째, '에이전트형 검색(Agentic Retrieval)' 루프를 통해 LLM이 불충분한 정보에 대해 환각(Hallucination)을 일으키는 대신 추가 정보를 능동적으로 탐색하게 유도하여 답변의 정확도를 높입니다. 셋째, 메모리 구축 과정에서 추가적인 연산 및 토큰 비용이 발생하지만, 긴 타임라인의 데이터를 효율적으로 압축 및 인덱싱하여 장기적으로는 추론 효율성을 최적화합니다.

Technical Difficulty

고급

Estimated implementation complexity based on methodology.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!