2601.22651v1 Jan 30, 2026 cs.LG

GUDA: 디퓨전 모델을 위한 역상관 관계 기반 그룹별 학습 데이터 기여도 분석 방법 (Unlearning을 활용)

GUDA: Counterfactual Group-wise Training Data Attribution for Diffusion Models via Unlearning

Yuhta Takida
Yuhta Takida
Citations: 1,143
h-index: 15
N. Murata
N. Murata
Citations: 1,210
h-index: 17
Yuki Mitsufuji
Yuki Mitsufuji
Citations: 1,353
h-index: 15
Bac Nguyen
Bac Nguyen
Citations: 12
h-index: 2
Chieh-Hsin Lai
Chieh-Hsin Lai
Citations: 1,401
h-index: 17
Toshimitsu Uesaka
Toshimitsu Uesaka
Citations: 941
h-index: 12
Stefano Ermon
Stefano Ermon
Citations: 519
h-index: 13

컴퓨터 비전 생성 모델의 학습 데이터 기여도 분석은 특정 출력 결과에 어떤 학습 데이터가 영향을 미쳤는지 파악하는 것을 목표로 합니다. 대부분의 방법은 개별 데이터 샘플에 대한 점수를 매기지만, 실제 사용자는 종종 그룹 수준의 정보(예: 예술 스타일 또는 객체 클래스)가 필요합니다. 그룹별 기여도 분석은 역상관 관계를 기반으로 합니다. 즉, 모델의 생성 결과가 어떤 그룹이 학습 데이터에서 제거된 경우 어떻게 달라질까요? 이러한 역상관 관계를 자연스럽게 구현하는 방법 중 하나는 Leave-One-Group-Out (LOGO) 재학습으로, 모델을 각 그룹을 제거한 상태에서 재학습하는 방식입니다. 그러나 그룹의 수가 증가함에 따라 계산 비용이 기하급수적으로 증가하는 문제가 있습니다. 본 논문에서는 디퓨전 모델을 위한 GUDA (Group Unlearning-based Data Attribution) 방법을 제안합니다. GUDA는 각 역상관 관계 모델을 처음부터 학습하는 대신, 공유된 전체 데이터 모델에 머신 언러닝을 적용하여 각 모델을 근사합니다. GUDA는 전체 모델과 각 언러닝된 역상관 관계 모델 간의 likelihood 기반 점수(ELBO) 차이를 사용하여 그룹의 영향력을 정량화합니다. CIFAR-10 데이터셋과 Stable Diffusion을 사용한 예술 스타일 기여도 분석 실험 결과, GUDA는 의미 유사성, gradient 기반 기여도 분석 방법, 그리고 개별 데이터 샘플 언러닝 방법보다 주요 기여 그룹을 더 안정적으로 식별하며, CIFAR-10 데이터셋에서 LOGO 재학습 방식보다 최대 100배 빠른 속도를 달성했습니다.

Original Abstract

Training-data attribution for vision generative models aims to identify which training data influenced a given output. While most methods score individual examples, practitioners often need group-level answers (e.g., artistic styles or object classes). Group-wise attribution is counterfactual: how would a model's behavior on a generated sample change if a group were absent from training? A natural realization of this counterfactual is Leave-One-Group-Out (LOGO) retraining, which retrains the model with each group removed; however, it becomes computationally prohibitive as the number of groups grows. We propose GUDA (Group Unlearning-based Data Attribution) for diffusion models, which approximates each counterfactual model by applying machine unlearning to a shared full-data model instead of training from scratch. GUDA quantifies group influence using differences in a likelihood-based scoring rule (ELBO) between the full model and each unlearned counterfactual. Experiments on CIFAR-10 and artistic style attribution with Stable Diffusion show that GUDA identifies primary contributing groups more reliably than semantic similarity, gradient-based attribution, and instance-level unlearning approaches, while achieving x100 speedup on CIFAR-10 over LOGO retraining.

0 Citations
0 Influential
8.5 Altmetric
42.5 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!