2601.09451v1 Jan 14, 2026 cs.LG

최신 연구 결과: Quamba-SE: 상태 공간 모델 활성화 함수의 소프트-엣지 양자화기

Late Breaking Results: Quamba-SE: Soft-edge Quantizer for Activations in State Space Models

Yizhi Chen
Yizhi Chen
Citations: 0
h-index: 0
Ahmed Hemani
Ahmed Hemani
Citations: 4
h-index: 1

본 연구에서는 상태 공간 모델(SSM)의 활성화 함수 양자화를 위한 소프트-엣지 양자화기인 Quamba-SE를 제안합니다. 기존 방법과는 달리, Quamba-SE는 표준 INT8 연산을 사용하며, 작은 값에는 고정밀, 일반적인 값에는 표준 스케일, 이상치에는 저정밀의 세 가지 적응형 스케일을 적용합니다. 이를 통해 이상치 정보를 보존하면서, 다른 값들의 정밀도를 유지합니다. Mamba-130M 모델을 사용하여 6개의 제로샷 벤치마크에서 Quamba-SE를 평가한 결과, Quamba-SE는 Quamba보다 일관되게 우수한 성능을 보였으며, 개별 벤치마크에서 최대 +2.68% 향상, 그리고 6개의 데이터셋 평균 정확도에서 최대 +0.83% 향상을 달성했습니다.

Original Abstract

We propose Quamba-SE, a soft-edge quantizer for State Space Model (SSM) activation quantization. Unlike existing methods, using standard INT8 operation, Quamba-SE employs three adaptive scales: high-precision for small values, standard scale for normal values, and low-precision for outliers. This preserves outlier information instead of hard clipping, while maintaining precision for other values. We evaluate on Mamba- 130M across 6 zero-shot benchmarks. Results show that Quamba- SE consistently outperforms Quamba, achieving up to +2.68% on individual benchmarks and up to +0.83% improvement in the average accuracy of 6 datasets.

0 Citations
0 Influential
0.5 Altmetric
2.5 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!