ActMem: LLM 에이전트의 기억 검색과 추론 간의 간극을 해소하는 방법
ActMem: Bridging the Gap Between Memory Retrieval and Reasoning in LLM Agents
장기적인 상호작용을 처리하는 대규모 언어 모델(LLM) 에이전트에게 효과적인 메모리 관리는 필수적입니다. 현재의 메모리 프레임워크는 일반적으로 에이전트를 수동적인 '기록 장치'로 취급하며, 정보의 심층적인 의미를 이해하지 않고 정보를 검색합니다. 이러한 프레임워크는 충돌 감지 및 복잡한 의사 결정을 요구하는 시나리오에서 실패할 수 있습니다. 이러한 중요한 간극을 해소하기 위해, 우리는 메모리 검색을 능동적인 인과 추론과 통합하는 새로운 액티브 메모리 프레임워크인 ActMem을 제안합니다. ActMem은 비정형 대화 기록을 구조화된 인과 및 의미 그래프로 변환합니다. 역상징 추론과 상식 추론을 활용하여, ActMem은 에이전트가 내재된 제약을 추론하고 과거 상태와 현재 의도 간의 잠재적인 충돌을 해결할 수 있도록 합니다. 또한, 우리는 논리 기반 시나리오에서 에이전트의 추론 능력을 평가하기 위한 포괄적인 데이터셋인 ActMemEval을 소개하여 기존의 메모리 벤치마크의 사실 검색 중심적인 한계를 극복합니다. 실험 결과, ActMem은 복잡하고 메모리 의존적인 작업에서 최첨단 모델보다 훨씬 뛰어난 성능을 보이며, 더욱 일관되고 신뢰할 수 있는 지능형 어시스턴트 개발의 길을 열어줍니다.
Effective memory management is essential for large language model (LLM) agents handling long-term interactions. Current memory frameworks typically treat agents as passive "recorders" and retrieve information without understanding its deeper implications. They may fail in scenarios requiring conflict detection and complex decision-making. To bridge this critical gap, we propose a novel actionable memory framework called ActMem that integrates memory retrieval with active causal reasoning. ActMem transforms unstructured dialogue history into a structured causal and semantic graph. By leveraging counterfactual reasoning and commonsense completion, it enables agents to deduce implicit constraints and resolve potential conflicts between past states and current intentions. Furthermore, we introduce a comprehensive dataset ActMemEval to evaluate agent reasoning capabilities in logic-driven scenarios, moving beyond the fact-retrieval focus of existing memory benchmarks. Experiments demonstrate that ActMem significantly outperforms state-of-the-art baselines in handling complex, memory-dependent tasks, paving the way for more consistent and reliable intelligent assistants.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.