HingeMem: 경계 지향적 장기 기억 모델 - 확장 가능한 대화를 위한 쿼리 적응형 검색
HingeMem: Boundary Guided Long-Term Memory with Query Adaptive Retrieval for Scalable Dialogues
장기 기억은 지속적이고, 지속 가능하며, 개인화된 상호 작용을 지원하는 대화 시스템에 매우 중요합니다. 그러나 기존 방법은 연속적인 요약 또는 OpenIE 기반 그래프 구축과 고정된 Top-k 검색을 사용하는데, 이는 쿼리 범주에 대한 제한적인 적응성과 높은 계산 오버헤드를 초래합니다. 본 논문에서는 경계 지향적 장기 기억 모델인 HingeMem을 제안합니다. HingeMem은 이벤트 분할 이론을 활용하여 사람, 시간, 위치, 주제의 네 가지 요소를 기반으로 해석 가능한 인덱싱 인터페이스를 구축하며, 경계 트리거 하이퍼에지를 사용합니다. 어떤 요소가 변경될 때마다 HingeMem은 경계를 설정하고 현재 세그먼트를 기록하여 불필요한 연산을 줄이고 중요한 문맥을 보존합니다. 다양한 정보 요구 사항에 대한 강력하고 효율적인 검색을 가능하게 하기 위해, HingeMem은 쿼리 적응형 검색 메커니즘을 도입합니다. 이 메커니즘은 (a) 검색할 내용을 결정하여 요소별 인덱싱된 메모리에 대한 쿼리 기반 라우팅을 수행하고, (b) 검색 깊이를 제어하여 예상되는 쿼리 유형에 따라 검색 범위를 조절합니다. LOCOMO 데이터셋에서 다양한 크기의 LLM(0.6B에서 프로덕션 모델인 Qwen-Flash까지)을 사용하여 수행한 실험 결과, HingeMem은 쿼리 범주를 명시하지 않고도 강력한 기준 모델보다 약 20%의 성능 향상을 달성했으며, 동시에 계산 비용을 줄였습니다(HippoRAG2에 비해 질문 답변 토큰 비용이 68% 감소). HingeMem은 메모리 모델링 기술을 발전시킬 뿐만 아니라, 확장된 상호 작용에서 효율적이고 신뢰할 수 있는 메모리를 필요로 하는 웹 애플리케이션에 적합한 쿼리 적응형 검색 기능을 제공합니다.
Long-term memory is critical for dialogue systems that support continuous, sustainable, and personalized interactions. However, existing methods rely on continuous summarization or OpenIE-based graph construction paired with fixed Top-\textit{k} retrieval, leading to limited adaptability across query categories and high computational overhead. In this paper, we propose HingeMem, a boundary-guided long-term memory that operationalizes event segmentation theory to build an interpretable indexing interface via boundary-triggered hyperedges over four elements: person, time, location, and topic. When any such element changes, HingeMem draws a boundary and writes the current segment, thereby reducing redundant operations and preserving salient context. To enable robust and efficient retrieval under diverse information needs, HingeMem introduces query-adaptive retrieval mechanisms that jointly decide (a) \textit{what to retrieve}: determine the query-conditioned routing over the element-indexed memory; (b) \textit{how much to retrieve}: control the retrieval depth based on the estimated query type. Extensive experiments across LLM scales (from 0.6B to production-tier models; \textit{e.g.}, Qwen3-0.6B to Qwen-Flash) on LOCOMO show that HingeMem achieves approximately $20\%$ relative improvement over strong baselines without query categories specification, while reducing computational cost (68\%$\downarrow$ question answering token cost compared to HippoRAG2). Beyond advancing memory modeling, HingeMem's adaptive retrieval makes it a strong fit for web applications requiring efficient and trustworthy memory over extended interactions.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.