2604.20300v1 Apr 22, 2026 cs.AI

FSFM: 생물학적 영감을 받은 선택적 망각 프레임워크: 에이전트 메모리 관리

FSFM: A Biologically-Inspired Framework for Selective Forgetting of Agent Memory

Chao Li
Chao Li
Citations: 5
h-index: 1
Yingjie Gu
Yingjie Gu
Citations: 20
h-index: 2
Xiaojing Zhang
Xiaojing Zhang
Citations: 9
h-index: 2
Liqiang Wang
Liqiang Wang
Citations: 7
h-index: 1
Pengcheng Ren
Pengcheng Ren
Citations: 18
h-index: 2
Shidang Shi
Shidang Shi
Citations: 0
h-index: 0
Wen-Chao Xiong
Wen-Chao Xiong
Citations: 7
h-index: 2
Yi-Quan Guo
Yi-Quan Guo
Citations: 4
h-index: 1
Qi Sun
Qi Sun
Citations: 1
h-index: 1
Jing Ma
Jing Ma
Citations: 15
h-index: 2

LLM 에이전트의 경우, 메모리 관리는 효율성, 품질 및 보안에 중요한 영향을 미칩니다. 많은 연구가 정보 저장에 집중하는 반면, 인간의 인지 과정(해마 지수/고정화 이론 및 에빙하우스 망각 곡선)에서 영감을 받은 선택적 망각은 상대적으로 연구가 부족합니다. 우리는 자원 제약적인 환경에서 잘 설계된 망각 메커니즘이 기억만큼 중요하며, 세 가지 측면에서 이점을 제공한다고 주장합니다. (1) 지능적인 메모리 정리 작업을 통한 효율성 향상, (2) 동적으로 오래된 선호도와 컨텍스트를 업데이트하여 품질 향상, (3) 악의적인 입력, 민감한 데이터 및 개인 정보 침해 콘텐츠를 적극적으로 망각하여 보안 강화. 본 프레임워크는 수동적인 감쇠 기반, 능동적인 삭제 기반, 안전 유발형, 그리고 적응형 강화 학습 기반의 망각 메커니즘 분류 체계를 제시합니다. LLM 에이전트 아키텍처 및 벡터 데이터베이스의 발전을 바탕으로, 상세한 사양, 구현 전략 및 통제된 실험을 통한 실증적 검증 결과를 제시합니다. 결과는 접근 효율성 (+8.49%), 콘텐츠 품질 (+29.2% 신호 대 잡음비), 그리고 보안 성능(보안 위험의 100% 제거)에서 상당한 개선을 보여줍니다. 본 연구는 인지 신경과학과 AI 시스템을 연결하여 실제 배포를 위한 실용적인 솔루션을 제공하며, 윤리적 및 규제 준수를 고려합니다. 본 논문은 도전 과제와 향후 연구 방향을 제시하며, 선택적 망각을 실제 환경에서 운영되는 차세대 LLM 에이전트의 필수적인 기능으로 확립하고자 합니다. 본 연구는 AI 내재적 메모리 시스템 및 책임감 있는 AI 개발에 기여합니다.

Original Abstract

For LLM agents, memory management critically impacts efficiency, quality, and security. While much research focuses on retention, selective forgetting--inspired by human cognitive processes (hippocampal indexing/consolidation theory and Ebbinghaus forgetting curve)--remains underexplored. We argue that in resource-constrained environments, a well-designed forgetting mechanism is as crucial as remembering, delivering benefits across three dimensions: (1) efficiency via intelligent memory pruning, (2) quality by dynamically updating outdated preferences and context, and (3) security through active forgetting of malicious inputs, sensitive data, and privacy-compromising content. Our framework establishes a taxonomy of forgetting mechanisms: passive decay-based, active deletion-based, safety-triggered, and adaptive reinforcement-based. Building on advances in LLM agent architectures and vector databases, we present detailed specifications, implementation strategies, and empirical validation from controlled experiments. Results show significant improvements: access efficiency (+8.49%), content quality (+29.2% signal-to-noise ratio), and security performance (100% elimination of security risks). Our work bridges cognitive neuroscience and AI systems, offering practical solutions for real-world deployment while addressing ethical and regulatory compliance. The paper concludes with challenges and future directions, establishing selective forgetting as a fundamental capability for next-generation LLM agents operating in real-world, resource-constrained scenarios. Our contributions align with AI-native memory systems and responsible AI development.

0 Citations
0 Influential
1 Altmetric
5.0 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!