TypeBandit: 효과적인 이질 그래프 신경망에서의 속성 완성화를 위한 타입 레벨 컨텍스트 할당 및 재가중화
TypeBandit: Type-Level Context Allocation and Reweighting for Effective Attribute Completion in Heterogeneous Graph Neural Networks
이질 그래프는 다중 관계 시스템을 모델링하는 데 널리 사용되지만, 누락된 노드 속성은 다운스트림 학습의 주요 장애물이 됩니다. 본 논문에서는 타입 의존적인 정보 비대칭이라는 현상을 파악하고 공식화합니다. 즉, 노드 타입에 따라 속성 완성화를 위해 제공되는 유용한 신호의 수준이 크게 다르다는 현상입니다. 이러한 관찰에 따라, 우리는 이질 그래프 속성 완성화를 위한 가볍고 모델에 독립적인 방법론인 TypeBandit을 제안합니다. TypeBandit은 토폴로지 정보를 고려한 초기화, 타입 레벨 밴디트 샘플링, 그리고 통합된 표현 학습을 결합합니다. TypeBandit은 노드 타입에 따라 제한된 전역 샘플링 예산을 할당하고, 각 타입 내에서 대표적인 노드를 샘플링하여, 샘플링된 타입 요약 정보를 표현 생성 과정에서 공유되는 컨텍스트 신호로 사용합니다. TypeBandit은 각 타겟 노드의 로컬 이웃 전체가 아닌 타입 레벨에서 작동하므로, 적응형 상태를 작고 실용적으로 유지하여 대규모 이질 그래프에 적합합니다. TypeBandit의 주요 장점은 아키텍처의 유연성입니다. TypeBandit은 새로운 이질 그래프 신경망 아키텍처를 요구하지 않고, R-GCN, HetGNN, HGT, SimpleHGN과 같은 대표적인 이질 GNN 백본을 위한 타입 인식 프런트엔드로 작동합니다. 또한, 구조적 차수 사전 정보를 특징 전파와 결합하는 하이브리드 사전 훈련 방식을 도입하여, 차수 정보만 사용하는 사전 훈련보다 더 안정적인 초기화 값을 얻을 수 있습니다. DBLP, IMDB, ACM 데이터셋에 대한 고정 분할 프로토콜에서 TypeBandit은 데이터셋에 따라 다르지만 실질적으로 의미 있는 성능 향상을 제공합니다. 추가적인 ablation 실험, 안정성 검증, 효율성 분석, 의미 전파 실험, 그리고 샘플링된 OGBN-MAG 실험은 TypeBandit이 타입별 정보가 불균등하게 분포되어 있고 샘플링 자원이 제한적인 경우 이질 그래프 속성 완성화를 위한 실용적인 전략임을 뒷받침합니다.
Heterogeneous graphs are widely used to model multi-relational systems, but missing node attributes remain a major bottleneck for downstream learning. In this paper, we identify and formalize type-dependent information asymmetry: the phenomenon that different node types provide substantially different levels of useful signal for attribute completion. Motivated by this observation, we propose TypeBandit, a lightweight, model-agnostic methodology for heterogeneous attribute completion. TypeBandit combines topology-aware initialization, type-level bandit sampling, and joint representation learning. It allocates a finite global sampling budget across node types, samples representative nodes within each type, and uses the resulting sampled type summaries as shared contextual signals during representation construction. By operating at the type level rather than over each target node's local neighborhood, TypeBandit keeps the adaptive state compact and practical for large heterogeneous graphs. A key advantage of TypeBandit is architectural flexibility. Rather than requiring a new heterogeneous graph neural network architecture, TypeBandit acts as a type-aware front end for representative heterogeneous GNN backbones, including R-GCN, HetGNN, HGT, and SimpleHGN. We further introduce a hybrid pretraining scheme that combines structural degree priors with feature propagation, yielding a more reliable initializer than degree-only pretraining. Under a fixed-split protocol on DBLP, IMDB, and ACM, TypeBandit provides dataset-dependent but practically meaningful gains. Additional ablation, stability, efficiency, semantic-propagation, and sampled OGBN-MAG experiments support TypeBandit as a practical strategy for heterogeneous attribute completion when type-specific information is unevenly distributed and sampling resources are limited.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.