2604.03782v1 Apr 04, 2026 math.OC

앵커드 그래디언트 디센트 어센트 알고리즘의 개선된 마지막 반복 수렴률

An Improved Last-Iterate Convergence Rate for Anchored Gradient Descent Ascent

G. Tsoukalas
G. Tsoukalas
Citations: 500
h-index: 10
Anja Surina
Anja Surina
Citations: 32
h-index: 2
A. Suggala
A. Suggala
Citations: 1,403
h-index: 13
Anton Kovsharov
Anton Kovsharov
Citations: 2,398
h-index: 1
S. Shirobokov
S. Shirobokov
Citations: 1,099
h-index: 13
Francisco J. R. Ruiz
Francisco J. R. Ruiz
Citations: 1,212
h-index: 5
P. Kohli
P. Kohli
Citations: 205
h-index: 5
Swarat Chaudhuri
Swarat Chaudhuri
Citations: 687
h-index: 8

본 연구에서는 매끄러운 볼록-오목 최소-최대 문제에 대한 앵커드 그래디언트 디센트 어센트 알고리즘의 마지막 반복 수렴성을 분석합니다. 기존 연구에서는 제곱 그래디언트 노름에 대해 $ ext{O}(1/t^{2-2p})$의 마지막 반복 수렴률이 성립함을 보였으며, 여기서 $p ext{는 } (1/2, 1) ext{에 속합니다. 그러나, 개선된 정확한 $ ext{O}(1/t)$ 수렴률이 달성 가능한지에 대한 문제는 여전히 미해결 과제였습니다. 본 연구에서는 이 질문에 대해 긍정적인 답변을 제시합니다. 이 결과는 Lean으로 형식적 증명을 작성할 수 있는 AI 시스템에 의해 자율적으로 발견되었습니다. Lean 증명은 다음 링크에서 확인할 수 있습니다: https://github.com/google-deepmind/formal-conjectures/pull/3675/commits/a13226b49fd3b897f4c409194f3bcbeb96a08515

Original Abstract

We analyze the last-iterate convergence of the Anchored Gradient Descent Ascent algorithm for smooth convex-concave min-max problems. While previous work established a last-iterate rate of $\mathcal{O}(1/t^{2-2p})$ for the squared gradient norm, where $p \in (1/2, 1)$, it remained an open problem whether the improved exact $\mathcal{O}(1/t)$ rate is achievable. In this work, we resolve this question in the affirmative. This result was discovered autonomously by an AI system capable of writing formal proofs in Lean. The Lean proof can be accessed at https://github.com/google-deepmind/formal-conjectures/pull/3675/commits/a13226b49fd3b897f4c409194f3bcbeb96a08515

0 Citations
0 Influential
60.5727144863 Altmetric
302.9 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!