2603.05116v1 Mar 05, 2026 cs.LG

FedBCD: 연합 학습을 위한 통신 효율성을 높인 가속 블록 좌표 경사 하강법

FedBCD:Communication-Efficient Accelerated Block Coordinate Gradient Descent for Federated Learning

Junkang Liu
Junkang Liu
Citations: 99
h-index: 6
Fanhua Shang
Fanhua Shang
Citations: 3,562
h-index: 35
Hongying Liu
Hongying Liu
Citations: 794
h-index: 14
Yuanyuan Liu
Yuanyuan Liu
Citations: 2,074
h-index: 25
Yuangang Li
Yuangang Li
Citations: 51
h-index: 3
YunXiang Gong
YunXiang Gong
Citations: 38
h-index: 1

최근 연합 학습이 널리 연구되어 왔지만, 비전 트랜스포머와 같은 대규모 모델의 경우 여전히 각 통신 라운드마다 높은 오버헤드가 발생합니다. 이러한 통신 복잡성을 줄이기 위해, 우리는 통신 효율성을 높이는 새로운 연합 블록 좌표 경사 하강법(FedBCGD) 방법을 제안합니다. 제안된 방법은 모델 파라미터를 공유 블록을 포함한 여러 블록으로 나누고, 각 클라이언트가 특정 파라미터 블록을 업로드하도록 하여 통신 오버헤드를 크게 줄일 수 있습니다. 또한, 클라이언트 드리프트 제어 및 확률적 분산 감소 기능을 갖춘 가속된 FedBCGD 알고리즘(FedBCGD+)을 개발했습니다. 저희 연구가 대규모 딥 모델 학습을 위한 파라미터 블록 통신에 대한 최초의 연구 결과임을 밝힙니다. 제안된 알고리즘에 대한 수렴 분석도 제공합니다. 우리의 이론적 결과는 제안된 알고리즘의 통신 복잡성이 기존 방법보다 $1/N$만큼 낮으며, 수렴 속도가 훨씬 빠름을 보여줍니다. 실험 결과는 제안된 알고리즘이 최첨단 알고리즘보다 우수함을 나타냅니다. 코드: https://github.com/junkangLiu0/FedBCGD

Original Abstract

Although Federated Learning has been widely studied in recent years, there are still high overhead expenses in each communication round for large-scale models such as Vision Transformer. To lower the communication complexity, we propose a novel Federated Block Coordinate Gradient Descent (FedBCGD) method for communication efficiency. The proposed method splits model parameters into several blocks, including a shared block and enables uploading a specific parameter block by each client, which can significantly reduce communication overhead. Moreover, we also develop an accelerated FedBCGD algorithm (called FedBCGD+) with client drift control and stochastic variance reduction. To the best of our knowledge, this paper is the first work on parameter block communication for training large-scale deep models. We also provide the convergence analysis for the proposed algorithms. Our theoretical results show that the communication complexities of our algorithms are a factor $1/N$ lower than those of existing methods, where $N$ is the number of parameter blocks, and they enjoy much faster convergence than their counterparts. Empirical results indicate the superiority of the proposed algorithms compared to state-of-the-art algorithms. The code is available at https://github.com/junkangLiu0/FedBCGD.

38 Citations
2 Influential
57.351459567761 Altmetric
328.8 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!