2604.06129v1 Apr 07, 2026 cs.CV

PoM: 다항식 혼합기를 이용한 어텐션의 선형 시간 복잡도 대체 모델

PoM: A Linear-Time Replacement for Attention with the Polynomial Mixer

Corentin Sautier
Corentin Sautier
ENPC
Citations: 323
h-index: 5
Elliot Vincent
Elliot Vincent
ENPC
Citations: 145
h-index: 6
David Picard
David Picard
Citations: 3
h-index: 1
Nicolas Dufour
Nicolas Dufour
Citations: 173
h-index: 6
L. Degeorge
L. Degeorge
Citations: 7
h-index: 1
Davide Allegro
Davide Allegro
Citations: 79
h-index: 5
Tom Ravaud
Tom Ravaud
Citations: 0
h-index: 0
Yohann Perron
Yohann Perron
Citations: 28
h-index: 3
Z. S. Baltaci
Z. S. Baltaci
Citations: 16
h-index: 2
Fei Meng
Fei Meng
Citations: 3
h-index: 1
Syrine Kalleli
Syrine Kalleli
Citations: 6
h-index: 2
Marta L'opez-Rauhut
Marta L'opez-Rauhut
Citations: 2
h-index: 1
T. Loiseau
T. Loiseau
Citations: 42
h-index: 3
S. Albouy
S. Albouy
Citations: 2
h-index: 1
Raphael Baena
Raphael Baena
Citations: 29
h-index: 3
Loic Landrieu
Loic Landrieu
Citations: 28
h-index: 3
A. Ghosh
A. Ghosh
Citations: 25
h-index: 2

본 논문에서는 다항식 혼합기(Polynomial Mixer, PoM)를 소개합니다. PoM은 자기 어텐션의 대체 모델로 사용될 수 있는, 선형 복잡도를 가지는 새로운 토큰 혼합 메커니즘입니다. PoM은 학습된 다항 함수를 통해 입력 토큰을 압축된 표현으로 통합하고, 각 토큰은 이를 통해 문맥 정보를 얻습니다. 우리는 PoM이 문맥 매핑 속성을 만족함을 증명하여, PoM을 탑재한 트랜스포머가 여전히 범용적인 시퀀스-투-시퀀스 근사 모델임을 보장합니다. 우리는 텍스트 생성, 손글씨 텍스트 인식, 이미지 생성, 3D 모델링, 지구 관측을 포함한 다섯 가지 다양한 영역에서 기존의 자기 어텐션을 PoM으로 대체했습니다. PoM은 어텐션 기반 모델과 동등한 성능을 제공하면서, 특히 긴 시퀀스를 처리할 때 계산 비용을 크게 절감합니다. 코드 및 관련 정보는 다음 링크에서 확인할 수 있습니다: https://github.com/davidpicard/pom.

Original Abstract

This paper introduces the Polynomial Mixer (PoM), a novel token mixing mechanism with linear complexity that serves as a drop-in replacement for self-attention. PoM aggregates input tokens into a compact representation through a learned polynomial function, from which each token retrieves contextual information. We prove that PoM satisfies the contextual mapping property, ensuring that transformers equipped with PoM remain universal sequence-to-sequence approximators. We replace standard self-attention with PoM across five diverse domains: text generation, handwritten text recognition, image generation, 3D modeling, and Earth observation. PoM matches the performance of attention-based models while drastically reducing computational cost when working with long sequences. The code is available at https://github.com/davidpicard/pom.

0 Citations
0 Influential
39.479184330022 Altmetric
197.4 Score
Original PDF
26

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!