2602.02502v1 Jan 20, 2026 cs.LG

NLP에서의 지속적 학습을 위한 희소 어댑터 융합

Sparse Adapter Fusion for Continual Learning in NLP

Min Zeng
Min Zeng
Citations: 24
h-index: 3
Xi Chen
Xi Chen
Citations: 9
h-index: 1
Haiqin Yang
Haiqin Yang
Citations: 7
h-index: 1
Yike Guo
Yike Guo
Citations: 2
h-index: 1

자연어 처리 분야에서 지속적 학습은 변화하는 데이터에 적응하고 파국적인 망각을 방지하는 데 중요한 역할을 합니다. 상당한 발전이 있었음에도 불구하고, 기존 방법은 여전히 비효율적인 파라미터 재사용, 유사하지 않은 작업 간의 파국적인 망각 위험, 그리고 각 작업에 불필요한 새로운 파라미터 도입과 같은 과제를 안고 있습니다. 이러한 문제점을 해결하기 위해, 우리는 기존 및 새로운 어댑터를 동적으로 융합하여 이러한 문제를 해결하는 희소 어댑터 융합 방법(Sparse Adapter Fusion Method, SAFM)을 제안합니다. SAFM은 의사 결정 단계와 조정 단계의 두 단계로 작동합니다. 의사 결정 단계에서, SAFM은 새로운 어댑터를 통합할지, 기존 어댑터를 재사용할지, 또는 빈 어댑터를 추가할지를 결정합니다. 파라미터 소비를 최소화하고 재사용을 극대화하도록 설계된 아키텍처 검색 절차는 기존 또는 빈 어댑터를 재사용하는 것을 우선시합니다. 조정 단계에서, SAFM은 특히 레이어별 손실을 통해 어댑터 간의 구분을 장려하여 동일 작업 내의 지식을 효과적으로 캡처합니다. 실험 결과는 SAFM이 최첨단(SOTA) 방법보다 우수한 성능을 보이며, 전체 파라미터의 60% 미만을 사용하면서도 유사한 성능을 달성한다는 것을 일관되게 보여줍니다.

Original Abstract

Continual learning in natural language processing plays a crucial role in adapting to evolving data and preventing catastrophic forgetting. Despite significant progress, existing methods still face challenges, such as inefficient parameter reuse across tasks, risking catastrophic forgetting when tasks are dissimilar, and the unnecessary introduction of new parameters for each task, which hampers knowledge sharing among similar tasks. To tackle these issues, we propose a Sparse Adapter Fusion Method (SAFM), which dynamically fuses old and new adapters to address these challenges. SAFM operates in two stages: the decision stage and the tuning stage. In the decision stage, SAFM determines whether to incorporate a new adapter, reuse an existing one, or add an empty adapter. The architecture search procedure, designed to prioritize reusing or adding empty adapters, minimizes parameter consumption and maximizes reuse. In the tuning stage, SAFM especially facilitates a layer-wise loss to encourage differentiation between adapters, effectively capturing knowledge within the same task. Experimental results consistently show that SAFM outperforms state-of-the-art (SOTA) methods, achieving comparable performance while utilizing less than 60% of the parameters.

1 Citations
0 Influential
1.5 Altmetric
8.5 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!