가중치 공간 연산을 통한 제로샷 양자화
Zero-Shot Quantization via Weight-Space Arithmetic
본 연구에서는 양자화 후 처리(PTQ)에 대한 강건성이 가중치 공간에서 전달 가능한 방향임을 보여줍니다. 우리는 이 방향을 '양자화 벡터'라고 부르며, 간단한 가중치 공간 연산을 통해 도네이터 태스크로부터 추출된 이 벡터는 수신 모델에 적용되어, 수신 측에서의 양자화 인식 학습(QAT) 없이도 PTQ로 인한 노이즈에 대한 강건성을 최대 60%까지 향상시킬 수 있습니다. 본 방법은 수신 측의 학습 데이터가 필요하지 않으므로, 극도로 낮은 비트 환경에서의 배포를 위한 QAT의 저렴하고 효과적인 대안을 제공합니다. 본 연구는 비전 트랜스포머(ViT) 모델을 사용하여 이를 입증합니다. 더욱 일반적으로, 본 연구 결과는 양자화 강건성이 특정 태스크에 대한 학습의 부산물이 아니라, 가중치 공간의 재사용 가능한 특징이며, 재학습 없이 전달될 수 있음을 시사합니다.
We show that robustness to post-training quantization (PTQ) is a transferable direction in weight space. We call this direction the quantization vector: extracted from a donor task by simple weight-space arithmetic, it can be used to patch a receiver model and improve robustness to PTQ-induced noise by as much as 60%, without receiver-side quantization-aware training (QAT). Because the method requires no receiver training data, it provides a zero-shot, low-cost alternative to QAT for extremely low-bit deployment. We demonstrate this on Vision Transformer (ViT) models. More broadly, our results suggest that quantization robustness is not merely a byproduct of task-specific training, but a reusable feature of weight-space geometry that can be transferred rather than retrained.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.