2601.20848v1 Jan 28, 2026 cs.LG

학습 후 공정성 제어: 동적 공정성을 위한 단일 학습 프레임워크

Post-Training Fairness Control: A Single-Train Framework for Dynamic Fairness in Recommendation

Weixin Chen
Weixin Chen
Citations: 22
h-index: 3
Yuhan Zhao
Yuhan Zhao
Citations: 126
h-index: 5
Li Chen
Li Chen
Citations: 24
h-index: 3

추천 시스템에서의 불공정성을 완화하기 위한 노력이 증가하고 있지만, 기존의 공정성을 고려한 방법들은 일반적으로 학습 시점에 공정성 요구 사항을 고정하고 학습 후의 유연성을 제한합니다. 그러나 실제 시나리오에서 다양한 이해관계자들이 시간이 지남에 따라 서로 다른 공정성 요구 사항을 요구할 수 있으므로, 다양한 공정성 요구 사항에 맞게 모델을 재학습하는 것은 비현실적입니다. 이러한 제한 사항을 해결하기 위해, 본 연구에서는 학습 후 공정성 제어를 가능하게 하는 단일 학습 프레임워크인 Cofair를 제안합니다. 구체적으로, Cofair는 다양한 공정성 수준에 특화된 사용자 임베딩을 생성하기 위해 공정성 조건부 어댑터 모듈을 갖춘 공유 표현 레이어를 도입하며, 동시에 이러한 수준에서 사용자별 단조적인 공정성 개선을 보장하는 사용자 수준의 정규화 항을 포함합니다. 이론적으로, Cofair의 적대적 목표가 인구 통계적 공정성의 상한을 나타내며, 정규화 항은 사용자 수준에서 점진적인 공정성을 강화한다는 것을 증명했습니다. 다양한 데이터셋과 기반 모델에 대한 종합적인 실험 결과는 Cofair 프레임워크가 다양한 수준에서 동적 공정성을 제공하며, 최첨단 기반 모델과 비교하여 동등하거나 더 나은 공정성-정확도 곡선을 제공하며, 각 새로운 공정성 요구 사항에 대해 모델을 재학습할 필요가 없음을 보여줍니다. 본 연구의 코드는 다음 링크에서 공개적으로 이용할 수 있습니다: https://github.com/weixinchen98/Cofair.

Original Abstract

Despite growing efforts to mitigate unfairness in recommender systems, existing fairness-aware methods typically fix the fairness requirement at training time and provide limited post-training flexibility. However, in real-world scenarios, diverse stakeholders may demand differing fairness requirements over time, so retraining for different fairness requirements becomes prohibitive. To address this limitation, we propose Cofair, a single-train framework that enables post-training fairness control in recommendation. Specifically, Cofair introduces a shared representation layer with fairness-conditioned adapter modules to produce user embeddings specialized for varied fairness levels, along with a user-level regularization term that guarantees user-wise monotonic fairness improvements across these levels. We theoretically establish that the adversarial objective of Cofair upper bounds demographic parity and the regularization term enforces progressive fairness at user level. Comprehensive experiments on multiple datasets and backbone models demonstrate that our framework provides dynamic fairness at different levels, delivering comparable or better fairness-accuracy curves than state-of-the-art baselines, without the need to retrain for each new fairness requirement. Our code is publicly available at https://github.com/weixinchen98/Cofair.

1 Citations
0 Influential
27.993061443341 Altmetric
141.0 Score
Original PDF
2

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!