2601.04823v3 Jan 08, 2026 cs.AI

DR-LoRA: 전문가 혼합 모델 적응을 위한 동적 랭크 LoRA

DR-LoRA: Dynamic Rank LoRA for Mixture-of-Experts Adaptation

Ronghao Chen
Ronghao Chen
Citations: 44
h-index: 3
Huacan Wang
Huacan Wang
Citations: 8
h-index: 2
Guanzhi Deng
Guanzhi Deng
Citations: 22
h-index: 3
Bo Li
Bo Li
Citations: 10
h-index: 1
Lijie Wen
Lijie Wen
Citations: 26
h-index: 3
Linqi Song
Linqi Song
Citations: 10
h-index: 2

전문가 혼합(MoE)은 대규모 언어 모델(LLM)의 확장을 위한 주요 패러다임으로 자리 잡았습니다. LoRA와 같은 매개변수 효율적 미세 조정(PEFT)은 사전 학습된 MoE LLM을 다운스트림 작업에 적응시키는 데 널리 채택되고 있습니다. 그러나 기존 접근 방식은 모든 전문가에게 동일한 LoRA 랭크를 할당함으로써 MoE LLM 내의 본질적인 기능적 전문화를 간과하고 있습니다. 이러한 균일한 할당은 자원 불일치를 초래하여, 작업과 관련된 전문가는 충분한 지원을 받지 못하는 반면 관련성이 낮은 전문가는 불필요한 매개변수를 할당받게 됩니다. 이에 본 연구에서는 작업별 요구 사항에 따라 미세 조정 중 전문가의 LoRA 랭크를 동적으로 증가시키는 DR-LoRA라는 동적 랭크 LoRA 프레임워크를 제안합니다. DR-LoRA는 전문가 라우팅 빈도와 LoRA 랭크 중요도를 통합하여 추가 용량에 대한 각 전문가의 수요를 정량화하는 전문가 중요도 점수(Expert Saliency Scoring) 메커니즘을 사용합니다. 중요도 점수가 높은 전문가에게 랭크 확장의 우선순위를 부여함으로써, 대상 작업에 최적화된 이질적인 랭크 분포를 자동으로 형성할 수 있습니다. 여러 벤치마크에 대한 실험 결과, DR-LoRA는 동일한 매개변수 예산 내에서 표준 LoRA 및 정적 할당 전략보다 일관되게 우수한 성능을 보이며, 더 효율적인 매개변수 활용으로 뛰어난 작업 성능을 달성함을 입증했습니다.

Original Abstract

Mixture-of-Experts (MoE) has become a prominent paradigm for scaling Large Language Models (LLMs). Parameter-efficient fine-tuning (PEFT), such as LoRA, is widely adopted to adapt pretrained MoE LLMs to downstream tasks. However, existing approaches assign identical LoRA ranks to all experts, overlooking the intrinsic functional specialization within MoE LLMs. This uniform allocation leads to resource mismatch, task-relevant experts are under-provisioned while less relevant ones receive redundant parameters. We propose a Dynamic Rank LoRA framework named DR-LoRA, which dynamically grows expert LoRA ranks during fine-tuning based on task-specific demands. DR-LoRA employs an Expert Saliency Scoring mechanism that integrates expert routing frequency and LoRA rank importance to quantify each expert's demand for additional capacity. Experts with higher saliency scores are prioritized for rank expansion, enabling the automatic formation of a heterogeneous rank distribution tailored to the target task. Experiments on multiple benchmarks demonstrate that DR-LoRA consistently outperforms standard LoRA and static allocation strategies under the same parameter budget, achieving superior task performance with more efficient parameter utilization.

0 Citations
0 Influential
1.5 Altmetric
7.5 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!