2604.03420v1 Apr 03, 2026 cs.CV

가중치 공간 연산을 통한 제로샷 양자화

Zero-Shot Quantization via Weight-Space Arithmetic

Adrian Robert Minut
Adrian Robert Minut
Citations: 12
h-index: 2
Emanuele Rodola
Emanuele Rodola
Citations: 107
h-index: 1
Daniele Solombrino
Daniele Solombrino
Citations: 11
h-index: 2
Antonio Andrea Gargiulo
Antonio Andrea Gargiulo
Citations: 94
h-index: 2
Luca Zhou
Luca Zhou
Citations: 11
h-index: 2
Alessandro Zirilli
Alessandro Zirilli
Citations: 2
h-index: 1

본 연구에서는 양자화 후 처리(PTQ)에 대한 강건성이 가중치 공간에서 전달 가능한 방향임을 보여줍니다. 우리는 이 방향을 '양자화 벡터'라고 부르며, 간단한 가중치 공간 연산을 통해 도네이터 태스크로부터 추출된 이 벡터는 수신 모델에 적용되어, 수신 측에서의 양자화 인식 학습(QAT) 없이도 PTQ로 인한 노이즈에 대한 강건성을 최대 60%까지 향상시킬 수 있습니다. 본 방법은 수신 측의 학습 데이터가 필요하지 않으므로, 극도로 낮은 비트 환경에서의 배포를 위한 QAT의 저렴하고 효과적인 대안을 제공합니다. 본 연구는 비전 트랜스포머(ViT) 모델을 사용하여 이를 입증합니다. 더욱 일반적으로, 본 연구 결과는 양자화 강건성이 특정 태스크에 대한 학습의 부산물이 아니라, 가중치 공간의 재사용 가능한 특징이며, 재학습 없이 전달될 수 있음을 시사합니다.

Original Abstract

We show that robustness to post-training quantization (PTQ) is a transferable direction in weight space. We call this direction the quantization vector: extracted from a donor task by simple weight-space arithmetic, it can be used to patch a receiver model and improve robustness to PTQ-induced noise by as much as 60%, without receiver-side quantization-aware training (QAT). Because the method requires no receiver training data, it provides a zero-shot, low-cost alternative to QAT for extremely low-bit deployment. We demonstrate this on Vision Transformer (ViT) models. More broadly, our results suggest that quantization robustness is not merely a byproduct of task-specific training, but a reusable feature of weight-space geometry that can be transferred rather than retrained.

0 Citations
0 Influential
1 Altmetric
5.0 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!