HELP: HyperNode 확장을 통한 지식 노드 통합 및 논리 경로 기반 증거 위치 추적을 통한 정확하고 효율적인 GraphRAG
HELP: HyperNode Expansion and Logical Path-Guided Evidence Localization for Accurate and Efficient GraphRAG
대규모 언어 모델(LLM)은 종종 내재된 지식 경계 및 환각 현상으로 인해 지식 집약적인 작업에서 신뢰성이 제한됩니다. 검색 증강 생성(RAG)은 이러한 문제를 완화하지만, 다중 홉 추론에 필수적인 구조적 상호 의존성을 자주 간과합니다. 그래프 기반 RAG 접근 방식은 이러한 격차를 해소하려고 시도하지만, 그래프 탐색 비용 및 LLM이 생성한 요약의 의미적 노이즈와 같은 문제로 인해 일반적으로 정확성과 효율성 간의 균형을 맞추기 어렵습니다. 본 논문에서는 정확성과 실용적인 효율성 간의 균형을 맞추기 위해 설계된 새로운 프레임워크인 GraphRAG (HELP)를 제안합니다. HELP는 다음 두 가지 핵심 전략을 사용합니다. 1) HyperNode Expansion: 지식 삼항 관계를 반복적으로 연결하여 일관된 추론 경로를 형성하고, 이를 HyperNode로 추상화하여 복잡한 구조적 의존성을 포착하고 검색 정확성을 보장합니다. 2) Logical Path-Guided Evidence Localization: 미리 계산된 그래프-텍스트 상관 관계를 활용하여 이러한 경로를 직접 코퍼스에 매핑하여 우수한 효율성을 제공합니다. HELP는 비용이 많이 드는 랜덤 워크 및 의미 왜곡을 피하여 지식 무결성을 유지하면서 검색 지연 시간을 크게 줄입니다. 광범위한 실험 결과, HELP는 다양한 간단하고 복잡한 질의 응답 벤치마크에서 경쟁력 있는 성능을 달성했으며, 선도적인 그래프 기반 RAG 기준 모델보다 최대 28.8배 빠른 속도를 보였습니다.
Large Language Models (LLMs) often struggle with inherent knowledge boundaries and hallucinations, limiting their reliability in knowledge-intensive tasks. While Retrieval-Augmented Generation (RAG) mitigates these issues, it frequently overlooks structural interdependencies essential for multi-hop reasoning. Graph-based RAG approaches attempt to bridge this gap, yet they typically face trade-offs between accuracy and efficiency due to challenges such as costly graph traversals and semantic noise in LLM-generated summaries. In this paper, we propose HyperNode Expansion and Logical Path-Guided Evidence Localization strategies for GraphRAG (HELP), a novel framework designed to balance accuracy with practical efficiency through two core strategies: 1) HyperNode Expansion, which iteratively chains knowledge triplets into coherent reasoning paths abstracted as HyperNodes to capture complex structural dependencies and ensure retrieval accuracy; and 2) Logical Path-Guided Evidence Localization, which leverages precomputed graph-text correlations to map these paths directly to the corpus for superior efficiency. HELP avoids expensive random walks and semantic distortion, preserving knowledge integrity while drastically reducing retrieval latency. Extensive experiments demonstrate that HELP achieves competitive performance across multiple simple and multi-hop QA benchmarks and up to a 28.8$\times$ speedup over leading Graph-based RAG baselines.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.