FedCARE: 충돌 인지 투영과 재학습 방지 복구를 활용한 연합 학습 기반 지식 삭제 기술
FedCARE: Federated Unlearning with Conflict-Aware Projection and Relearning-Resistant Recovery
연합 학습(FL)은 원시 데이터를 중앙 집중화하지 않고 협력적인 모델 학습을 가능하게 하지만, '잊혀질 권리'와 같은 개인 정보 보호 규정은 FL 시스템이 요청 시 이전에 사용된 학습 데이터의 영향을 제거하도록 요구합니다. 연합 모델을 처음부터 다시 학습하는 것은 엄청난 비용이 들기 때문에, 연합 학습 기반 지식 삭제(FU) 기술이 필요합니다. 그러나 기존의 FU 방법은 높은 지식 삭제 비용, 얽혀있는 지식으로 인한 성능 저하, 그리고 지식 삭제 후 복구 과정에서의 의도치 않은 재학습 문제를 가지고 있습니다. 본 논문에서는 충돌을 인지하고 재학습을 방지하는 복구 기능을 제공하는 통합적이고 효율적인 FU 프레임워크인 FedCARE를 제안합니다. FedCARE는 효율적인 지식 삭제를 위해 로컬에서 사용할 수 있는 데이터를 활용하여 그래디언트 상승법을 사용하고, 데이터 없이 모델을 역전파하여 공유된 지식의 클래스 수준 프록시를 생성합니다. 이러한 통찰력을 바탕으로, FedCARE는 가짜 샘플 생성기, 성능 유지적인 지식 삭제를 위한 충돌 인지 투영 그래디언트 상승법, 그리고 지식 삭제 이전 모델로의 되돌아감을 억제하는 복구 전략을 통합합니다. FedCARE는 클라이언트, 인스턴스 및 클래스 수준의 지식 삭제를 비교적 낮은 비용으로 지원합니다. 다양한 데이터셋과 모델 아키텍처, 그리고 IID 및 non-IID 환경에서의 광범위한 실험 결과, FedCARE는 효과적인 지식 삭제, 향상된 성능 유지, 그리고 기존의 FU 방법보다 낮은 재학습 위험을 달성하는 것을 보여줍니다.
Federated learning (FL) enables collaborative model training without centralizing raw data, but privacy regulations such as the right to be forgotten require FL systems to remove the influence of previously used training data upon request. Retraining a federated model from scratch is prohibitively expensive, motivating federated unlearning (FU). However, existing FU methods suffer from high unlearning overhead, utility degradation caused by entangled knowledge, and unintended relearning during post-unlearning recovery. In this paper, we propose FedCARE, a unified and low overhead FU framework that enables conflict-aware unlearning and relearning-resistant recovery. FedCARE leverages gradient ascent for efficient forgetting when target data are locally available and employs data free model inversion to construct class level proxies of shared knowledge. Based on these insights, FedCARE integrates a pseudo-sample generator, conflict-aware projected gradient ascent for utility preserving unlearning, and a recovery strategy that suppresses rollback toward the pre-unlearning model. FedCARE supports client, instance, and class level unlearning with modest overhead. Extensive experiments on multiple datasets and model architectures under both IID and non-IID settings show that FedCARE achieves effective forgetting, improved utility retention, and reduced relearning risk compared to state of the art FU baselines.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.