2602.10982v1 Feb 11, 2026 cs.LG

RiemannGL: 리만 기하학이 그래프 딥러닝을 변화시키다

RiemannGL: Riemannian Geometry Changes Graph Deep Learning

Philip S. Yu
Philip S. Yu
Citations: 188
h-index: 7
Li Sun
Li Sun
Citations: 144
h-index: 6
Qiqi Wan
Qiqi Wan
Citations: 39
h-index: 3
Suyang Zhou
Suyang Zhou
Citations: 41
h-index: 3
Zhenhao Huang
Zhenhao Huang
Citations: 133
h-index: 6

그래프는 어디에나 존재하며, 그래프 학습은 인공지능 및 데이터 마이닝 분야에서 핵심적인 역할을 수행합니다. 이미지의 픽셀 그리드나 언어의 순차적 구조와 달리, 그래프는 복잡한 상호작용을 가진 전형적인 비유클리드 구조를 갖습니다. 본 논문은 리만 기하학이 그래프 표현 학습을 위한 체계적이고 필수적인 기반을 제공하며, 리만 그래프 학습은 개별적인 기술들의 모음이 아닌 통합적인 패러다임으로 간주되어야 한다고 주장합니다. 최근 연구에서는 그래프 학습과 리만 기하학의 통합을 탐구했지만, 대부분의 기존 접근 방식은 하이퍼볼릭 공간과 같은 제한된 종류의 다양체에 국한되며, 종종 외재적 다양체 형식을 채택합니다. 본 연구는 리만 그래프 학습의 핵심 목표가 그래프 신경망에 내재적인 다양체 구조를 부여하는 것이며, 이는 아직 충분히 탐구되지 않았다고 주장합니다. 이러한 관점을 발전시키기 위해, 본 논문은 기존 접근 방식의 주요 개념적 및 방법론적 격차를 파악하고, 다양체 유형, 신경망 구조 및 학습 패러다임의 세 가지 측면에서 체계적인 연구 계획을 제시합니다. 또한, 리만 그래프 학습의 잠재력을 최대한 발휘하기 위해 해결해야 할 과제, 이론적 기반 및 유망한 연구 방향에 대해 논의합니다. 본 논문은 일관된 관점을 제시하고, 리만 기하학을 향후 그래프 학습 연구의 기초 프레임워크로 활용하는 광범위한 탐구를 촉진하는 것을 목표로 합니다.

Original Abstract

Graphs are ubiquitous, and learning on graphs has become a cornerstone in artificial intelligence and data mining communities. Unlike pixel grids in images or sequential structures in language, graphs exhibit a typical non-Euclidean structure with complex interactions among the objects. This paper argues that Riemannian geometry provides a principled and necessary foundation for graph representation learning, and that Riemannian graph learning should be viewed as a unifying paradigm rather than a collection of isolated techniques. While recent studies have explored the integration of graph learning and Riemannian geometry, most existing approaches are limited to a narrow class of manifolds, particularly hyperbolic spaces, and often adopt extrinsic manifold formulations. We contend that the central mission of Riemannian graph learning is to endow graph neural networks with intrinsic manifold structures, which remains underexplored. To advance this perspective, we identify key conceptual and methodological gaps in existing approaches and outline a structured research agenda along three dimensions: manifold type, neural architecture, and learning paradigm. We further discuss open challenges, theoretical foundations, and promising directions that are critical for unlocking the full potential of Riemannian graph learning. This paper aims to provide a coherent viewpoint and to stimulate broader exploration of Riemannian geometry as a foundational framework for future graph learning research.

0 Citations
0 Influential
3.5 Altmetric
17.5 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!