2603.21541v1 Mar 23, 2026 cs.LG

트랜스포머 모델의 일반화 성능에 대한 더욱 정확한 경계

Sharper Generalization Bounds for Transformer

Wan Tian
Wan Tian
Citations: 18
h-index: 3
Zhongyi Li
Zhongyi Li
Citations: 26
h-index: 3
Huiming Zhang
Huiming Zhang
Citations: 5
h-index: 2
Yijie Peng
Yijie Peng
Citations: 2
h-index: 1
Yawen Li
Yawen Li
Citations: 9
h-index: 2
Tao Hu
Tao Hu
Citations: 14
h-index: 2
Zhouhui Lian
Zhouhui Lian
Citations: 12
h-index: 2

본 논문에서는 트랜스포머 모델의 일반화 오차 경계를 연구합니다. 오프셋 라데마커 복잡성을 기반으로, 단일 레이어 단일 헤드, 단일 레이어 다중 헤드, 그리고 다중 레이어 트랜스포머를 포함한 다양한 트랜스포머 아키텍처에 대한 더욱 정확한 일반화 경계를 도출합니다. 먼저, 트랜스포머의 초과 위험을 오프셋 라데마커 복잡성으로 표현합니다. 해당 가설 공간의 경험적 커버링 수와 그 관계를 활용하여, 최적의 수렴률을 상수 계수 내에서 달성하는 초과 위험 경계를 얻습니다. 다음으로, 행렬 순위와 행렬 노름을 사용하여 트랜스포머 가설 공간의 커버링 수를 상한으로 제한함으로써 더욱 정교한 초과 위험 경계를 도출하며, 이는 정확하고 아키텍처에 의존적인 일반화 경계를 제공합니다. 마지막으로, 특징 매핑에 대한 유한성 가정을 완화하고, 이론적 결과를 무한(서브 가우시안) 특징과 두꺼운 꼬리 분포를 갖는 환경으로 확장합니다.

Original Abstract

This paper studies generalization error bounds for Transformer models. Based on the offset Rademacher complexity, we derive sharper generalization bounds for different Transformer architectures, including single-layer single-head, single-layer multi-head, and multi-layer Transformers. We first express the excess risk of Transformers in terms of the offset Rademacher complexity. By exploiting its connection with the empirical covering numbers of the corresponding hypothesis spaces, we obtain excess risk bounds that achieve optimal convergence rates up to constant factors. We then derive refined excess risk bounds by upper bounding the covering numbers of Transformer hypothesis spaces using matrix ranks and matrix norms, leading to precise, architecture-dependent generalization bounds. Finally, we relax the boundedness assumption on feature mappings and extend our theoretical results to settings with unbounded (sub-Gaussian) features and heavy-tailed distributions.

0 Citations
0 Influential
1.5 Altmetric
7.5 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!