트랜스포머 모델의 일반화 성능에 대한 더욱 정확한 경계
Sharper Generalization Bounds for Transformer
본 논문에서는 트랜스포머 모델의 일반화 오차 경계를 연구합니다. 오프셋 라데마커 복잡성을 기반으로, 단일 레이어 단일 헤드, 단일 레이어 다중 헤드, 그리고 다중 레이어 트랜스포머를 포함한 다양한 트랜스포머 아키텍처에 대한 더욱 정확한 일반화 경계를 도출합니다. 먼저, 트랜스포머의 초과 위험을 오프셋 라데마커 복잡성으로 표현합니다. 해당 가설 공간의 경험적 커버링 수와 그 관계를 활용하여, 최적의 수렴률을 상수 계수 내에서 달성하는 초과 위험 경계를 얻습니다. 다음으로, 행렬 순위와 행렬 노름을 사용하여 트랜스포머 가설 공간의 커버링 수를 상한으로 제한함으로써 더욱 정교한 초과 위험 경계를 도출하며, 이는 정확하고 아키텍처에 의존적인 일반화 경계를 제공합니다. 마지막으로, 특징 매핑에 대한 유한성 가정을 완화하고, 이론적 결과를 무한(서브 가우시안) 특징과 두꺼운 꼬리 분포를 갖는 환경으로 확장합니다.
This paper studies generalization error bounds for Transformer models. Based on the offset Rademacher complexity, we derive sharper generalization bounds for different Transformer architectures, including single-layer single-head, single-layer multi-head, and multi-layer Transformers. We first express the excess risk of Transformers in terms of the offset Rademacher complexity. By exploiting its connection with the empirical covering numbers of the corresponding hypothesis spaces, we obtain excess risk bounds that achieve optimal convergence rates up to constant factors. We then derive refined excess risk bounds by upper bounding the covering numbers of Transformer hypothesis spaces using matrix ranks and matrix norms, leading to precise, architecture-dependent generalization bounds. Finally, we relax the boundedness assumption on feature mappings and extend our theoretical results to settings with unbounded (sub-Gaussian) features and heavy-tailed distributions.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.