2603.01761v1 Mar 02, 2026 cs.LG

모듈형 메모리가 지속적인 학습 에이전트의 핵심

Modular Memory is the Key to Continual Learning Agents

Liyuan Wang
Liyuan Wang
Citations: 27
h-index: 3
Andrew D. Bagdanov
Andrew D. Bagdanov
Citations: 7,864
h-index: 37
Rahaf Aljundi
Rahaf Aljundi
Citations: 8,729
h-index: 21
Vaggelis Dorovatas
Vaggelis Dorovatas
Citations: 8
h-index: 2
M. Schwerin
M. Schwerin
Citations: 27
h-index: 3
Lucas Caccia
Lucas Caccia
Citations: 1,553
h-index: 12
Antonio Carta
Antonio Carta
Citations: 942
h-index: 15
Laurent Charlin
Laurent Charlin
Citations: 159
h-index: 5
Barbara Hammer
Barbara Hammer
Citations: 5
h-index: 1
Tyler L. Hayes
Tyler L. Hayes
Citations: 1,595
h-index: 16
Timm Hess
Timm Hess
Citations: 45
h-index: 4
Christopher Kanan
Christopher Kanan
Citations: 70
h-index: 2
D. Kudithipudi
D. Kudithipudi
Citations: 2,357
h-index: 24
Xialei Liu
Xialei Liu
Citations: 3,900
h-index: 20
V. Lomonaco
V. Lomonaco
Citations: 2,449
h-index: 21
Jorge Mendez-Mendez
Jorge Mendez-Mendez
Citations: 4
h-index: 1
Darshan Patil
Darshan Patil
Mila
Citations: 228
h-index: 3
Ameya Prabhu
Ameya Prabhu
Citations: 17
h-index: 2
Elisa Ricci
Elisa Ricci
Citations: 8
h-index: 2
T. Tuytelaars
T. Tuytelaars
Citations: 56,072
h-index: 75
Gido M. van de Ven
Gido M. van de Ven
University of Groningen
Citations: 4,097
h-index: 17
J. Weijer
J. Weijer
Citations: 2,368
h-index: 23
Martin Mundt
Martin Mundt
Citations: 91
h-index: 3
Jonghyun Choi
Jonghyun Choi
Citations: 119
h-index: 7

기초 모델은 대규모 사전 훈련과 테스트 시간 컴퓨팅 증가를 통해 머신러닝 분야에 혁신을 가져왔습니다. 이러한 모델들은 여러 분야에서 인간의 성능을 능가하지만, 지속적인 운영, 경험 축적, 그리고 개인화 측면에서 근본적인 한계를 가지고 있으며, 이는 적응형 지능의 핵심 기능입니다. 지속적인 학습 연구는 오랫동안 이러한 목표를 추구해 왔지만, 단일 모델의 파라미터를 업데이트하여 새로운 지식을 흡수하는 '가중치 내 학습(IWL)'에 집중해 왔기 때문에, 파국적인 망각 문제가 지속적으로 발생해 왔습니다. 우리는 가중치 내 학습(IWL)의 장점과 새롭게 등장한 문맥 내 학습(ICL)의 기능을 모듈형 메모리 설계를 통해 결합하는 것이, 대규모 지속적 적응을 위한 중요한 요소라고 주장합니다. 우리는 ICL을 활용하여 빠른 적응과 지식 축적을 가능하게 하고, IWL을 활용하여 모델의 기능을 안정적으로 업데이트하는 모듈형 메모리 중심 아키텍처에 대한 개념적 프레임워크를 제시하며, 지속적으로 학습하는 에이전트를 위한 실질적인 로드맵을 제시합니다.

Original Abstract

Foundation models have transformed machine learning through large-scale pretraining and increased test-time compute. Despite surpassing human performance in several domains, these models remain fundamentally limited in continuous operation, experience accumulation, and personalization, capabilities that are central to adaptive intelligence. While continual learning research has long targeted these goals, its historical focus on in-weight learning (IWL), i.e., updating a single model's parameters to absorb new knowledge, has rendered catastrophic forgetting a persistent challenge. Our position is that combining the strengths of In-Weight Learning (IWL) and the newly emerged capabilities of In-Context Learning (ICL) through the design of modular memory is the missing piece for continual adaptation at scale. We outline a conceptual framework for modular memory-centric architectures that leverage ICL for rapid adaptation and knowledge accumulation, and IWL for stable updates to model capabilities, charting a practical roadmap toward continually learning agents.

0 Citations
0 Influential
30 Altmetric
150.0 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!