검색을 생성으로: 자체 트리거 정보 계획을 갖춘 통합 프레임워크
Retrieval as Generation: A Unified Framework with Self-Triggered Information Planning
본 논문에서는 검색 증강 생성(RAG) 방식을 재검토하며, 검색 제어를 생성 과정에 직접 통합합니다. 검색을 외부 개입으로 취급하는 대신, 토큰 수준의 디코딩 내에서 검색 결정을 표현하여 추가적인 컨트롤러나 분류기 없이 엔드투엔드 조정을 가능하게 합니다. "검색을 생성으로(Retrieval as Generation)"라는 패러다임 하에, 생성 지향 검색과 정보 계획을 결합한 통합 프레임워크인 **GRIP** (**G**eneration-guided **R**etrieval with **I**nformation **P**lanning)을 제안합니다. GRIP의 핵심은 모델이 제어 토큰 방출을 통해 검색 행동을 조절하는 "자체 트리거 정보 계획(Self-Triggered Information Planning)"으로, 모델은 검색 시점, 쿼리 재구성 방법, 그리고 종료 시점을 단일 자동 회귀 경로 내에서 결정할 수 있습니다. 이러한 설계는 검색과 추론을 긴밀하게 결합하며, 실시간 증거 통합을 통한 동적 다단계 추론을 지원합니다. 이러한 행동을 감독하기 위해, 답변 가능, 부분적으로 답변 가능, 그리고 다중 단계 쿼리를 포함하는 구조화된 학습 데이터를 구축했으며, 각 데이터는 특정 토큰 패턴과 연결되어 있습니다. 5개의 질의 응답 벤치마크 실험 결과, GRIP은 강력한 RAG 기준 모델을 능가하며, GPT-4o와 경쟁적인 성능을 보이지만, 훨씬 적은 파라미터를 사용합니다.
We revisit retrieval-augmented generation (RAG) by embedding retrieval control directly into generation. Instead of treating retrieval as an external intervention, we express retrieval decisions within token-level decoding, enabling end-to-end coordination without additional controllers or classifiers. Under the paradigm of Retrieval as Generation, we propose \textbf{GRIP} (\textbf{G}eneration-guided \textbf{R}etrieval with \textbf{I}nformation \textbf{P}lanning), a unified framework in which the model regulates retrieval behavior through control-token emission. Central to GRIP is \textit{Self-Triggered Information Planning}, which allows the model to decide when to retrieve, how to reformulate queries, and when to terminate, all within a single autoregressive trajectory. This design tightly couples retrieval and reasoning and supports dynamic multi-step inference with on-the-fly evidence integration. To supervise these behaviors, we construct a structured training set covering answerable, partially answerable, and multi-hop queries, each aligned with specific token patterns. Experiments on five QA benchmarks show that GRIP surpasses strong RAG baselines and is competitive with GPT-4o while using substantially fewer parameters.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.