2604.17753v1 Apr 20, 2026 cs.AI

향상된 LoRA 병합을 위한 진화적 부정 모듈 가지치기

Evolutionary Negative Module Pruning for Better LoRA Merging

Mingli Song
Mingli Song
Citations: 93
h-index: 6
Anda Cao
Anda Cao
Citations: 88
h-index: 3
Zhuo Gou
Zhuo Gou
Citations: 0
h-index: 0
Kaixuan Chen
Kaixuan Chen
Citations: 8
h-index: 2
Jie Song
Jie Song
Citations: 20
h-index: 3
Yi Wang
Yi Wang
Citations: 16
h-index: 1
Yu Wang
Yu Wang
Citations: 15
h-index: 2
Canxiang Wang
Canxiang Wang
Citations: 19
h-index: 1

여러 개의 Low-Rank Adaptation (LoRA) 전문가 모델을 하나의 기본 모델로 병합하는 것은 효율적인 다중 작업 배포를 위한 유망한 접근 방식입니다. 기존 방법들은 가중치 보간 또는 부분 공간 정렬을 통해 간섭을 줄이려고 노력하지만, 이러한 방법들은 모든 LoRA 행렬이 병합된 모델의 성능에 긍정적으로 기여한다는 전제에 기반합니다. 본 논문에서는 현재 병합 방식의 중요한 문제점을 밝혀냅니다. 바로 $ extit{부정 모듈}$의 존재입니다. 부정 모듈은 특정 LoRA 레이어로, 병합 과정에서 전체 성능을 저하시키는 요인입니다. 우리는 $ extbf{E}$volutionary $ extbf{N}$egative $ extbf{M}$odule $ extbf{P}$runing ($ extbf{ENMP}$)이라는, 플러그 앤 플레이 방식으로 LoRA 모델의 가지치기를 수행하여 이러한 유해한 모듈을 식별하고 병합 전에 제거하는 방법을 제안합니다. ENMP는 진화적 탐색 전략을 활용하여 모듈 선택의 이산적이고 미분 불가능한 공간을 효과적으로 탐색하여 최적의 가지치기 구성을 찾습니다. 광범위한 실험 결과는 ENMP가 기존 병합 알고리즘의 성능을 꾸준히 향상시키며, 언어 및 비전 분야 모두에서 새로운 최고 성능을 달성한다는 것을 보여줍니다. 코드는 https://github.com/CaoAnda/ENMP-LoRAMerging 에서 확인할 수 있습니다.

Original Abstract

Merging multiple Low-Rank Adaptation (LoRA) experts into a single backbone is a promising approach for efficient multi-task deployment. While existing methods strive to alleviate interference via weight interpolation or subspace alignment, they rest upon the implicit assumption that all LoRA matrices contribute constructively to the merged model. In this paper, we uncover a critical bottleneck in current merging paradigms: the existence of $\textit{negative modules}$ -- specific LoRA layers that inherently degrade global performance upon merging. We propose $\textbf{E}$volutionary $\textbf{N}$egative $\textbf{M}$odule $\textbf{P}$runing ($\textbf{ENMP}$), a plug-and-play LoRA pruning method to locate and exclude these detrimental modules prior to merging. By leveraging an evolutionary search strategy, ENMP effectively navigates the discrete, non-differentiable landscape of module selection to identify optimal pruning configurations. Extensive evaluations demonstrate that ENMP consistently boosts the performance of existing merging algorithms, achieving a new state-of-the-art across both language and vision domains. Code is available at https://github.com/CaoAnda/ENMP-LoRAMerging.

0 Citations
0 Influential
26.4657359028 Altmetric
132.3 Score
Original PDF
1

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!