Face-D(^2)CL: 얼굴 위조 탐지를 위한 이중 지속 학습 기반 다중 도메인 시너지 표현
Face-D(^2)CL: Multi-Domain Synergistic Representation with Dual Continual Learning for Facial DeepFake Detection
얼굴 위조 기술의 빠른 발전은 공공의 신뢰와 정보 보안에 심각한 위협을 가하며, 얼굴 딥페이크 탐지는 중요한 연구 과제로 부상했습니다. 지속 학습은 얼굴 딥페이크 탐지 모델을 변화하는 위조 패턴에 적응시키는 효과적인 방법입니다. 그러나 기존 방법은 실제 지속 학습 시나리오에서 두 가지 주요 문제에 직면합니다. 즉, 불충분한 특징 표현과 파국적 망각입니다. 이러한 문제를 해결하기 위해, 얼굴 딥페이크 탐지를 위한 프레임워크인 Face-D(^2)CL을 제안합니다. 이 프레임워크는 공간 및 주파수 도메인 특징을 융합하여 다양한 위조 흔적을 포괄적으로 파악하는 다중 도메인 시너지 표현을 활용하며, Elastic Weight Consolidation (EWC)과 Orthogonal Gradient Constraint (OGC)를 결합한 이중 지속 학습 메커니즘을 사용합니다. EWC는 실제 샘플과 위조 샘플의 파라미터 중요도를 구별하고, OGC는 작업별 어댑터의 업데이트가 이전에 학습된 지식에 영향을 미치지 않도록 보장합니다. 이러한 시너지 효과를 통해 모델은 강력한 반망각 능력과 새로운 얼굴 위조 패턴에 대한 민첩한 적응성을 동시에 유지하며, 과거 데이터 재생에 의존하지 않습니다. 광범위한 실험 결과, 제안하는 방법은 기존 최첨단 기술보다 안정성과 적응성 측면에서 뛰어난 성능을 보이며, 평균 탐지 오류율을 60.7% 감소시키고, 새로운 위조 도메인에서 평균 탐지 AUC를 현재 최첨단 방법보다 7.9% 향상시켰습니다.
The rapid advancement of facial forgery techniques poses severe threats to public trust and information security, making facial DeepFake detection a critical research priority. Continual learning provides an effective approach to adapt facial DeepFake detection models to evolving forgery patterns. However, existing methods face two key bottlenecks in real-world continual learning scenarios: insufficient feature representation and catastrophic forgetting. To address these issues, we propose Face-D(^2)CL, a framework for facial DeepFake detection. It leverages multi-domain synergistic representation to fuse spatial and frequency-domain features for the comprehensive capture of diverse forgery traces, and employs a dual continual learning mechanism that combines Elastic Weight Consolidation (EWC), which distinguishes parameter importance for real versus fake samples, and Orthogonal Gradient Constraint (OGC), which ensures updates to task-specific adapters do not interfere with previously learned knowledge. This synergy enables the model to achieve a dynamic balance between robust anti-forgetting capabilities and agile adaptability to emerging facial forgery paradigms, all without relying on historical data replay. Extensive experiments demonstrate that our method surpasses current SOTA approaches in both stability and plasticity, achieving 60.7% relative reduction in average detection error rate, respectively. On unseen forgery domains, it further improves the average detection AUC by 7.9% compared to the current SOTA method.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.