Deep GraphRAG: 계층적 검색 및 적응적 통합을 위한 균형 잡힌 접근 방식
Deep GraphRAG: A Balanced Approach to Hierarchical Retrieval and Adaptive Integration
그래프 기반 검색 증강 생성(GraphRAG) 프레임워크는 전체 검색의 포괄성과 로컬 검색의 효율성 간의 균형을 맞추는 데 어려움을 겪습니다. 기존 방법은 종종 대규모 계층적 그래프 탐색, 검색 경로 최적화, 탐색-활용 동역학 균형, 그리고 견고한 다단계 재순위화 부족과 같은 문제에 직면합니다. 이러한 문제점을 해결하기 위해, 우리는 계층적 검색과 적응적 통합을 위한 균형 잡힌 접근 방식을 제공하는 프레임워크인 Deep GraphRAG를 제안합니다. Deep GraphRAG는 거시적인 커뮤니티 간 관계와 미시적인 커뮤니티 내 관계를 통합하는 계층적 글로벌-로컬 검색 전략을 도입합니다. 이 전략은 다음 세 단계로 구성됩니다: (1) 로컬 컨텍스트를 사용하여 검색 공간을 제한하는 커뮤니티 간 필터링; (2) 엔티티-상호 작용 분석을 통해 관련 하위 그래프를 우선순위로 지정하는 커뮤니티 수준의 정제; (3) 대상 커뮤니티 내의 엔티티 수준의 세밀한 검색. 최적화된 빔 검색을 사용하는 동적 재순위화 모듈은 이 프로세스를 안내하며, 효율성과 전체적인 포괄성을 균형 있게 유지하기 위해 후보를 지속적으로 필터링합니다. Deep GraphRAG는 또한 동적 가중치 보상 강화 학습(DW-GRPO)을 사용하여 학습된 소형 LLM을 활용하는 지식 통합 모듈을 특징으로 합니다. 이 새로운 강화 학습 접근 방식은 관련성, 충실성 및 간결성이라는 세 가지 핵심 목표를 균형 있게 조정하기 위해 보상 가중치를 동적으로 조정합니다. 이러한 학습을 통해 1.5B 파라미터의 소형 모델이 통합 작업에서 70B 파라미터의 대형 모델에 가까운 성능을 달성할 수 있습니다. Natural Questions 및 HotpotQA 데이터셋에 대한 실험 결과, Deep GraphRAG는 정확도 및 효율성 측면에서 기존 그래프 검색 방법보다 훨씬 뛰어난 성능을 보이는 것으로 나타났습니다.
Graph-based Retrieval-Augmented Generation (GraphRAG) frameworks face a trade-off between the comprehensiveness of global search and the efficiency of local search. Existing methods are often challenged by navigating large-scale hierarchical graphs, optimizing retrieval paths, and balancing exploration-exploitation dynamics, frequently lacking robust multi-stage re-ranking. To overcome these deficits, we propose Deep GraphRAG, a framework designed for a balanced approach to hierarchical retrieval and adaptive integration. It introduces a hierarchical global-to-local retrieval strategy that integrates macroscopic inter-community and microscopic intra-community contextual relations. This strategy employs a three-stage process: (1) inter-community filtering, which prunes the search space using local context; (2) community-level refinement, which prioritizes relevant subgraphs via entity-interaction analysis; and (3) entity-level fine-grained search within target communities. A beam search-optimized dynamic re-ranking module guides this process, continuously filtering candidates to balance efficiency and global comprehensiveness. Deep GraphRAG also features a Knowledge Integration Module leveraging a compact LLM, trained with Dynamic Weighting Reward GRPO (DW-GRPO). This novel reinforcement learning approach dynamically adjusts reward weights to balance three key objectives: relevance, faithfulness, and conciseness. This training enables compact models (1.5B) to approach the performance of large models (70B) in the integration task. Evaluations on Natural Questions and HotpotQA demonstrate that Deep GraphRAG significantly outperforms baseline graph retrieval methods in both accuracy and efficiency.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.