2601.06799v1 Jan 11, 2026 cs.CL

CIRAG: 다중 홉 질문 응답을 위한 구성-통합 검색 및 적응적 생성

CIRAG: Construction-Integration Retrieval and Adaptive Generation for Multi-hop Question Answering

Zihan Wang
Zihan Wang
Citations: 224
h-index: 3
Xiaocui Yang
Xiaocui Yang
Citations: 682
h-index: 12
Daling Wang
Daling Wang
Citations: 2,384
h-index: 24
Shi Feng
Shi Feng
Citations: 20
h-index: 3
Yifei Zhang
Yifei Zhang
Citations: 1,664
h-index: 20
Zili Wei
Zili Wei
Citations: 4
h-index: 1
Yilin Wang
Yilin Wang
Citations: 4
h-index: 2
Weidong Bao
Weidong Bao
Citations: 2
h-index: 1

트리플 기반 반복 검색 증강 생성(iRAG)은 다중 홉 질문 응답에서 문서 수준의 노이즈를 완화합니다. 그러나 기존 방법은 여전히 다음과 같은 한계점을 가지고 있습니다. (i) 탐욕적인 단일 경로 확장은 초기의 오류를 전파시키고, 다양한 추론 경로에서 얻을 수 있는 병렬적인 증거를 포착하지 못합니다. (ii) 그래랰(granularity) 요구 불일치는 단일 증거 표현이 노이즈 제어와 문맥적 충분성 사이의 균형을 맞추는 데 어려움을 겪습니다. 본 논문에서는 구성-통합 검색 및 적응적 생성 모델인 CIRAG를 제안합니다. CIRAG는 후보 트리플을 구성하고, 과거 정보를 조건부로 통합하여 핵심 트리플을 추출하고 다음 단계의 질문을 생성하는 반복 구성-통합 모듈을 도입합니다. 이 모듈은 여러 개의 가능한 증거 체인을 보존함으로써 탐욕적인 오류를 방지합니다. 또한, 문제 요구 사항에 따라 트리플에서 시작하여 관련 문장 및 전체 문단으로 점진적으로 문맥적 증거를 확장하는 적응적 캐스케이드 다중 그래랰 생성 모듈을 제안합니다. 더욱이, 교사 모델의 통합 정책을 경량화된 학생 모델로 전달하는 트래jectory 증류(Trajectory Distillation)를 도입하여 효율적이고 안정적인 장기 추론을 가능하게 합니다. 광범위한 실험 결과는 CIRAG가 기존의 iRAG 방법보다 우수한 성능을 달성한다는 것을 보여줍니다.

Original Abstract

Triple-based Iterative Retrieval-Augmented Generation (iRAG) mitigates document-level noise for multi-hop question answering. However, existing methods still face limitations: (i) greedy single-path expansion, which propagates early errors and fails to capture parallel evidence from different reasoning branches, and (ii) granularity-demand mismatch, where a single evidence representation struggles to balance noise control with contextual sufficiency. In this paper, we propose the Construction-Integration Retrieval and Adaptive Generation model, CIRAG. It introduces an Iterative Construction-Integration module that constructs candidate triples and history-conditionally integrates them to distill core triples and generate the next-hop query. This module mitigates the greedy trap by preserving multiple plausible evidence chains. Besides, we propose an Adaptive Cascaded Multi-Granularity Generation module that progressively expands contextual evidence based on the problem requirements, from triples to supporting sentences and full passages. Moreover, we introduce Trajectory Distillation, which distills the teacher model's integration policy into a lightweight student, enabling efficient and reliable long-horizon reasoning. Extensive experiments demonstrate that CIRAG achieves superior performance compared to existing iRAG methods.

0 Citations
0 Influential
12 Altmetric
60.0 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!