2602.16209v1 Feb 18, 2026 cs.LG

라이 그룹 제약 기반 잠재 변수 동역학을 이용한 기하학적 신경 연산자

Geometric Neural Operators via Lie Group-Constrained Latent Dynamics

Jiaquan Zhang
Jiaquan Zhang
Citations: 8
h-index: 2
Yang Yang
Yang Yang
Citations: 12
h-index: 2
Fachrina Dewi Puspitasari
Fachrina Dewi Puspitasari
Citations: 76
h-index: 2
Songbo Zhang
Songbo Zhang
Citations: 0
h-index: 0
Yibei Liu
Yibei Liu
Citations: 1
h-index: 1
Kuien Liu
Kuien Liu
Citations: 0
h-index: 0
Caiyan Qin
Caiyan Qin
Citations: 72
h-index: 2
Fan Mo
Fan Mo
Citations: 0
h-index: 0
Peng Wang
Peng Wang
Citations: 5
h-index: 1
Chaoning Zhang
Chaoning Zhang
Citations: 57
h-index: 4

신경 연산자는 많은 물리 시스템의 편미분 방정식 해를 계산하는 데 효과적인 프레임워크를 제공하며, 해상도 불변성과 데이터 기반 학습이 가능하다는 장점이 있습니다. 그러나 기존의 신경 연산자는 다층 반복 및 장기 예측 과정에서 불안정성을 보이는 경우가 많습니다. 이는 제약 없는 유클리드 잠재 공간 업데이트로 인해 발생하는 문제이며, 이러한 업데이트는 기하학적 제약 및 보존 법칙을 위반하기 때문입니다. 이러한 문제를 해결하기 위해, 우리는 저차원 라이 대수 매개변수화를 사용하여 잠재 표현에 그룹 작용 업데이트를 수행하는 방식으로 다양체를 제약하는 방법을 제안합니다. 제안하는 방법인 '다양체 제약 기반 라이 그룹 (MCL)'은 기존의 신경 연산자에 기하학적 유도 편향을 적용하는 효율적인 '플러그 앤 플레이' 모듈로 작동합니다. 1차원 버거스 방정식 및 2차원 나비에-스토크스 방정식과 같은 다양한 편미분 방정식에 대한 광범위한 실험 결과, 제안하는 방법은 다양한 파라미터 및 단계에서 상대적인 예측 오류를 30-50% 감소시키는 효과를 보였으며, 이는 파라미터 증가율이 2.26%에 불과했습니다. 이러한 결과는 제안하는 접근 방식이 신경 연산자 업데이트에 존재하는 원칙적인 기하학적 제약을 해결함으로써 장기 예측 정확도를 향상시키는 확장 가능한 솔루션을 제공한다는 것을 보여줍니다.

Original Abstract

Neural operators offer an effective framework for learning solutions of partial differential equations for many physical systems in a resolution-invariant and data-driven manner. Existing neural operators, however, often suffer from instability in multi-layer iteration and long-horizon rollout, which stems from the unconstrained Euclidean latent space updates that violate the geometric and conservation laws. To address this challenge, we propose to constrain manifolds with low-rank Lie algebra parameterization that performs group action updates on the latent representation. Our method, termed Manifold Constraining based on Lie group (MCL), acts as an efficient \emph{plug-and-play} module that enforces geometric inductive bias to existing neural operators. Extensive experiments on various partial differential equations, such as 1-D Burgers and 2-D Navier-Stokes, over a wide range of parameters and steps demonstrate that our method effectively lowers the relative prediction error by 30-50\% at the cost of 2.26\% of parameter increase. The results show that our approach provides a scalable solution for improving long-term prediction fidelity by addressing the principled geometric constraints absent in the neural operator updates.

0 Citations
0 Influential
2 Altmetric
10.0 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!