R$^2$BD: 일반화 및 효율적인 가짜 이미지 탐지를 위한 재구성 기반 방법
R$^2$BD: A Reconstruction-Based Method for Generalizable and Efficient Detection of Fake Images
최근, 생성형 AI 콘텐츠(AIGC) 이미지 탐지를 위해 재구성 기반 방법이 주목받고 있습니다. 이러한 방법은 사전 훈련된 확산 모델을 활용하여 입력 데이터를 재구성하고, 잔차를 측정하여 실제 이미지와 가짜 이미지를 구별합니다. 주요 장점은 데이터셋 특유의 특징에 대한 의존성을 줄이고, 분포 변화에 따른 일반화 성능을 향상시키는 것입니다. 그러나 다단계 역전 및 재구성 과정으로 인해 상당한 비효율성이 발생하며, 확산 모델에 대한 의존성은 GAN과 같은 다른 생성 방식에 대한 일반화 성능을 제한합니다. 본 논문에서는 두 가지 핵심 디자인을 기반으로 하는 새로운 가짜 이미지 탐지 프레임워크인 R$^2$BD를 제안합니다. (1) G-LDM은 VAE, GAN, 확산 모델의 생성 동작을 시뮬레이션하는 통합 재구성 모델로, 기존의 확산 모델만을 사용하는 방식보다 탐지 범위를 넓힙니다. (2) 잔차 편향 계산 모듈은 실제 이미지와 가짜 이미지를 단일 추론 단계에서 구별하여, 일반적으로 20회 이상의 단계를 필요로 하는 기존 방법보다 효율성을 크게 향상시킵니다. 10개의 공개 데이터셋으로 구성된 벤치마크에서 실시한 광범위한 실험 결과, R$^2$BD는 기존의 재구성 기반 방법보다 22배 이상 빠르게 작동하면서도 우수한 탐지 정확도를 달성했습니다. 교차 데이터셋 평가에서는 평균 13.87% 더 높은 성능을 보여주어, 다양한 생성 방식에 걸쳐 강력한 효율성과 일반화 성능을 입증했습니다. 평가에 사용된 코드와 데이터셋은 https://github.com/QingyuLiu/RRBD 에서 확인할 수 있습니다.
Recently, reconstruction-based methods have gained attention for AIGC image detection. These methods leverage pre-trained diffusion models to reconstruct inputs and measure residuals for distinguishing real from fake images. Their key advantage lies in reducing reliance on dataset-specific artifacts and improving generalization under distribution shifts. However, they are limited by significant inefficiency due to multi-step inversion and reconstruction, and their reliance on diffusion backbones further limits generalization to other generative paradigms such as GANs. In this paper, we propose a novel fake image detection framework, called R$^2$BD, built upon two key designs: (1) G-LDM, a unified reconstruction model that simulates the generation behaviors of VAEs, GANs, and diffusion models, thereby broadening the detection scope beyond prior diffusion-only approaches; and (2) a residual bias calculation module that distinguishes real and fake images in a single inference step, which is a significant efficiency improvement over existing methods that typically require 20$+$ steps. Extensive experiments on the benchmark from 10 public datasets demonstrate that R$^2$BD is over 22$\times$ faster than existing reconstruction-based methods while achieving superior detection accuracy. In cross-dataset evaluations, it outperforms state-of-the-art methods by an average of 13.87\%, showing strong efficiency and generalization across diverse generative methods. The code and dataset used for evaluation are available at https://github.com/QingyuLiu/RRBD.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.