분산 감소형 플로우 매칭을 위한 시간 쌍 일관성
Temporal Pair Consistency for Variance-Reduced Flow Matching
확산 모델, 플로우 매칭, 수정된 플로우 등과 같은 연속 시간 생성 모델은 시간 의존적인 벡터장을 학습하지만, 일반적으로는 각 타임스텝을 독립적으로 처리하는 학습 목표를 사용하므로 추정치의 분산이 높고 샘플링 효율성이 떨어집니다. 기존 연구에서는 명시적인 평활화 페널티, 경로 정규화 또는 수정된 확률 경로 및 솔버를 통해 이러한 문제를 완화하려 했습니다. 본 논문에서는 시간 쌍 일관성(Temporal Pair Consistency, TPC)이라는 경량의 분산 감소 원리를 제안합니다. TPC는 동일한 확률 경로를 따라 위치한 쌍의 타임스텝에서의 속도 예측을 결합하며, 모델 아키텍처, 확률 경로 또는 솔버를 수정하지 않고 추정치 수준에서만 작동합니다. 이론적 분석을 통해 TPC가 경로에 결합된 2차 정규화를 유도하여 그래디언트 분산을 효과적으로 감소시키면서 플로우 매칭의 기본 목표를 유지한다는 것을 보여줍니다. 플로우 매칭에 적용한 결과, TPC는 다양한 해상도에서 CIFAR-10 및 ImageNet 데이터셋에 대해 샘플 품질과 효율성을 향상시킵니다. TPC는 기존 방법과 동일하거나 더 낮은 계산 비용으로 더 낮은 FID 값을 달성하며, 노이즈 증강 학습, 스코어 기반 디노이징 및 수정된 플로우를 사용하는 최신 SOTA 파이프라인에도 원활하게 적용될 수 있습니다.
Continuous-time generative models, such as diffusion models, flow matching, and rectified flow, learn time-dependent vector fields but are typically trained with objectives that treat timesteps independently, leading to high estimator variance and inefficient sampling. Prior approaches mitigate this via explicit smoothness penalties, trajectory regularization, or modified probability paths and solvers. We introduce Temporal Pair Consistency (TPC), a lightweight variance-reduction principle that couples velocity predictions at paired timesteps along the same probability path, operating entirely at the estimator level without modifying the model architecture, probability path, or solver. We provide a theoretical analysis showing that TPC induces a quadratic, trajectory-coupled regularization that provably reduces gradient variance while preserving the underlying flow-matching objective. Instantiated within flow matching, TPC improves sample quality and efficiency across CIFAR-10 and ImageNet at multiple resolutions, achieving lower FID at identical or lower computational cost than prior methods, and extends seamlessly to modern SOTA-style pipelines with noise-augmented training, score-based denoising, and rectified flow.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.