모듈형 메모리가 지속적인 학습 에이전트의 핵심
Modular Memory is the Key to Continual Learning Agents
기초 모델은 대규모 사전 훈련과 테스트 시간 컴퓨팅 증가를 통해 머신러닝 분야에 혁신을 가져왔습니다. 이러한 모델들은 여러 분야에서 인간의 성능을 능가하지만, 지속적인 운영, 경험 축적, 그리고 개인화 측면에서 근본적인 한계를 가지고 있으며, 이는 적응형 지능의 핵심 기능입니다. 지속적인 학습 연구는 오랫동안 이러한 목표를 추구해 왔지만, 단일 모델의 파라미터를 업데이트하여 새로운 지식을 흡수하는 '가중치 내 학습(IWL)'에 집중해 왔기 때문에, 파국적인 망각 문제가 지속적으로 발생해 왔습니다. 우리는 가중치 내 학습(IWL)의 장점과 새롭게 등장한 문맥 내 학습(ICL)의 기능을 모듈형 메모리 설계를 통해 결합하는 것이, 대규모 지속적 적응을 위한 중요한 요소라고 주장합니다. 우리는 ICL을 활용하여 빠른 적응과 지식 축적을 가능하게 하고, IWL을 활용하여 모델의 기능을 안정적으로 업데이트하는 모듈형 메모리 중심 아키텍처에 대한 개념적 프레임워크를 제시하며, 지속적으로 학습하는 에이전트를 위한 실질적인 로드맵을 제시합니다.
Foundation models have transformed machine learning through large-scale pretraining and increased test-time compute. Despite surpassing human performance in several domains, these models remain fundamentally limited in continuous operation, experience accumulation, and personalization, capabilities that are central to adaptive intelligence. While continual learning research has long targeted these goals, its historical focus on in-weight learning (IWL), i.e., updating a single model's parameters to absorb new knowledge, has rendered catastrophic forgetting a persistent challenge. Our position is that combining the strengths of In-Weight Learning (IWL) and the newly emerged capabilities of In-Context Learning (ICL) through the design of modular memory is the missing piece for continual adaptation at scale. We outline a conceptual framework for modular memory-centric architectures that leverage ICL for rapid adaptation and knowledge accumulation, and IWL for stable updates to model capabilities, charting a practical roadmap toward continually learning agents.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.