EverMemOS: 구조화된 장기 추론을 위한 자기 조직화 메모리 운영 체제
EverMemOS: A Self-Organizing Memory Operating System for Structured Long-Horizon Reasoning
대규모 언어 모델(LLM)이 장기 상호작용 에이전트로 점점 더 많이 활용되고 있지만, 제한된 컨텍스트 윈도우로 인해 긴 상호작용 동안 일관된 행동을 유지하기 어렵다. 기존 메모리 시스템은 고립된 기록을 저장하고 파편화된 정보를 검색하는 데 그쳐, 변화하는 사용자 상태를 통합하고 충돌을 해결하는 데 한계가 있다. 이에 우리는 계산 메모리를 위해 엔그램(engram)에서 영감을 받은 수명 주기를 구현하는 자기 조직화 메모리 운영 체제인 EverMemOS를 제안한다. '일화적 흔적 형성(Episodic Trace Formation)' 과정은 대화 스트림을 일화적 흔적, 원자적 사실, 시간 제한적 예지(Foresight) 신호를 포착하는 MemCell로 변환한다. '의미적 통합(Semantic Consolidation)'은 MemCell을 주제별 MemScene으로 조직화하여 안정적인 의미 구조를 정제하고 사용자 프로필을 업데이트한다. '재구성적 회상(Reconstructive Recollection)'은 후속 추론에 필요한 충분한 컨텍스트를 구성하기 위해 MemScene이 유도하는 에이전트 검색을 수행한다. LoCoMo 및 LongMemEval에서의 실험 결과, EverMemOS는 메모리 증강 추론 작업에서 최고 수준(SOTA)의 성능을 달성했다. 또한 PersonaMem v2에 대한 프로필 연구와 사용자 프로파일링 및 예지 기능과 같은 채팅 중심 기능을 보여주는 질적 사례 연구를 보고한다. 코드는 https://github.com/EverMind-AI/EverMemOS 에서 이용 가능하다.
Large Language Models (LLMs) are increasingly deployed as long-term interactive agents, yet their limited context windows make it difficult to sustain coherent behavior over extended interactions. Existing memory systems often store isolated records and retrieve fragments, limiting their ability to consolidate evolving user states and resolve conflicts. We introduce EverMemOS, a self-organizing memory operating system that implements an engram-inspired lifecycle for computational memory. Episodic Trace Formation converts dialogue streams into MemCells that capture episodic traces, atomic facts, and time-bounded Foresight signals. Semantic Consolidation organizes MemCells into thematic MemScenes, distilling stable semantic structures and updating user profiles. Reconstructive Recollection performs MemScene-guided agentic retrieval to compose the necessary and sufficient context for downstream reasoning. Experiments on LoCoMo and LongMemEval show that EverMemOS achieves state-of-the-art performance on memory-augmented reasoning tasks. We further report a profile study on PersonaMem v2 and qualitative case studies illustrating chat-oriented capabilities such as user profiling and Foresight. Code is available at https://github.com/EverMind-AI/EverMemOS.
AI Analysis
Korean Summary
Key Innovations
- 일화적 기억을 에피소드, 원자적 사실(Atomic Facts), 시간 제한이 있는 예지(Foresight)로 구조화하는 'MemCell' 단위 도입
- 개별 MemCell을 의미적으로 유사한 주제끼리 묶어 상위 수준의 지식 구조인 'MemScene'으로 동적으로 클러스터링하는 '의미적 통합(Semantic Consolidation)' 메커니즘
- 단순 검색(Retrieval)을 넘어, 검색된 정보가 질문 해결에 충분한지 스스로 검증하고 필요시 질의를 재작성하여 다시 검색하는 '재구성적 회상(Reconstructive Recollection)' 프로세스
- 단기적인 대화 내용을 바탕으로 미래의 유효한 상태나 제약을 예측하여 저장하는 '시간 제한적 예지(Time-bounded Foresight)' 기능
- 사용자의 명시적/암묵적 특성을 지속적으로 업데이트하고 충돌을 관리하는 동적 사용자 프로파일링
Learning & Inference Impact
EverMemOS는 모델의 가중치를 직접 학습시키지는 않으나, 추론(Inference) 단계에서 LLM의 장기 기억 능력을 획기적으로 향상시킵니다. 첫째, 긴 문맥을 단순히 모델에 입력할 때 발생하는 'Lost-in-the-Middle' 현상을 방지하고, 구조화된 'MemScene'을 통해 파편화된 정보들을 연결하여 복잡한 멀티홉 추론을 가능하게 합니다. 둘째, '에이전트형 검색(Agentic Retrieval)' 루프를 통해 LLM이 불충분한 정보에 대해 환각(Hallucination)을 일으키는 대신 추가 정보를 능동적으로 탐색하게 유도하여 답변의 정확도를 높입니다. 셋째, 메모리 구축 과정에서 추가적인 연산 및 토큰 비용이 발생하지만, 긴 타임라인의 데이터를 효율적으로 압축 및 인덱싱하여 장기적으로는 추론 효율성을 최적화합니다.
Technical Difficulty
Estimated implementation complexity based on methodology.