제어 가능한 메모리 사용: 장기 인간-에이전트 상호작용에서 앵커링과 혁신의 균형
Controllable Memory Usage: Balancing Anchoring and Innovation in Long-Term Human-Agent Interaction
LLM 기반 에이전트가 장기 상호작용에 점점 더 많이 활용됨에 따라, 개인화와 스타일 일관성을 유지하기 위해 누적 메모리는 필수적이다. 그러나 기존 시스템 대부분은 메모리 사용에 있어 '전부 아니면 전무(all-or-nothing)' 방식을 취하고 있다. 모든 관련 과거 정보를 통합할 경우 에이전트가 과거 상호작용에 갇히는 '메모리 앵커링(Memory Anchoring)'이 발생할 수 있는 반면, 메모리를 완전히 배제하면 활용도가 떨어지고 중요한 상호작용 이력을 잃게 된다. 본 연구에서는 에이전트의 메모리 의존도를 명시적이고 사용자가 제어 가능한 차원으로 모델링할 수 있음을 보여준다. 먼저, 과거 상호작용이 현재 출력에 미치는 영향을 정량화하기 위해 메모리 의존도의 행동 지표를 도입한다. 이어 사용자가 혁신을 촉진하는 '새로운 시작' 모드부터 상호작용 기록을 충실히 따르는 '고충실도' 모드에 이르기까지 메모리 의존도를 동적으로 조절할 수 있는 프레임워크인 SteeM(Steerable Memory Agent)을 제안한다. 다양한 시나리오에서의 실험을 통해, 본 연구의 접근 방식이 기존 프롬프팅이나 경직된 메모리 마스킹 전략보다 일관되게 우수한 성능을 보이며, 개인화된 인간-에이전트 협업을 위한 보다 정교하고 효과적인 제어 기능을 제공함을 입증하였다.
As LLM-based agents are increasingly used in long-term interactions, cumulative memory is critical for enabling personalization and maintaining stylistic consistency. However, most existing systems adopt an ``all-or-nothing'' approach to memory usage: incorporating all relevant past information can lead to \textit{Memory Anchoring}, where the agent is trapped by past interactions, while excluding memory entirely results in under-utilization and the loss of important interaction history. We show that an agent's reliance on memory can be modeled as an explicit and user-controllable dimension. We first introduce a behavioral metric of memory dependence to quantify the influence of past interactions on current outputs. We then propose \textbf{Stee}rable \textbf{M}emory Agent, \texttt{SteeM}, a framework that allows users to dynamically regulate memory reliance, ranging from a fresh-start mode that promotes innovation to a high-fidelity mode that closely follows interaction history. Experiments across different scenarios demonstrate that our approach consistently outperforms conventional prompting and rigid memory masking strategies, yielding a more nuanced and effective control for personalized human-agent collaboration.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.