GraphScout: 내재적 탐색 능력을 갖춘 에이전트 기반 그래프 추론을 통해 대규모 언어 모델 강화
GraphScout: Empowering Large Language Models with Intrinsic Exploration Ability for Agentic Graph Reasoning
지식 그래프는 많은 실제 응용 분야에서 구조화되고 신뢰할 수 있는 정보를 제공하며, 이는 대규모 언어 모델(LLM)을 그래프 기반 검색과 결합하여 사실 기반 지식을 향상시키는 데 대한 관심 증가를 촉발하고 있습니다. 최근의 그래프 기반 검색 증강 생성(GraphRAG) 방법은 LLM과 지식 그래프 간의 반복적인 상호 작용을 통해 추론 능력을 향상시킵니다. 그러나 기존 접근 방식은 일반적으로 수동으로 설계된 지침에 의존하며, 미리 정의된 제한된 도구를 통해 지식 그래프와 상호 작용하여 그래프 탐색을 크게 제약합니다. 이러한 한계를 해결하기 위해, 우리는 보다 유연한 그래프 탐색 도구를 갖춘 에이전트 기반 그래프 추론 프레임워크인 GraphScout을 제안합니다. GraphScout은 모델이 지식 그래프와 자율적으로 상호 작용하여 구조화된 학습 데이터를 합성하도록 하며, 이 데이터는 LLM의 추가 학습에 사용되어 수동 어노테이션이나 작업 큐레이션 없이 에이전트 기반 그래프 추론 능력을 내재화합니다. 다섯 가지 지식 그래프 도메인에 대한 광범위한 실험 결과, GraphScout을 사용하여 증강된 작은 모델(예: Qwen3-4B)이 선도적인 LLM(예: Qwen-Max)을 기반으로 구축된 기본 방법보다 평균 16.7% 더 우수한 성능을 보이며, 훨씬 적은 추론 토큰을 필요로 한다는 것을 보여줍니다. 또한, GraphScout은 강력한 도메인 간 전이 성능을 나타냅니다. 저희 코드는 공개적으로 제공될 예정입니다~ootnote{https://github.com/Ying-Yuchen/_GraphScout_}.
Knowledge graphs provide structured and reliable information for many real-world applications, motivating increasing interest in combining large language models (LLMs) with graph-based retrieval to improve factual grounding. Recent Graph-based Retrieval-Augmented Generation (GraphRAG) methods therefore introduce iterative interaction between LLMs and knowledge graphs to enhance reasoning capability. However, existing approaches typically depend on manually designed guidance and interact with knowledge graphs through a limited set of predefined tools, which substantially constrains graph exploration. To address these limitations, we propose GraphScout, a training-centric agentic graph reasoning framework equipped with more flexible graph exploration tools. GraphScout enables models to autonomously interact with knowledge graphs to synthesize structured training data which are then used to post-train LLMs, thereby internalizing agentic graph reasoning ability without laborious manual annotation or task curation. Extensive experiments across five knowledge-graph domains show that a small model (e.g., Qwen3-4B) augmented with GraphScout outperforms baseline methods built on leading LLMs (e.g., Qwen-Max) by an average of 16.7\% while requiring significantly fewer inference tokens. Moreover, GraphScout exhibits robust cross-domain transfer performance. Our code will be made publicly available~\footnote{https://github.com/Ying-Yuchen/_GraphScout_}.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.