PT-RAG: 구조적 충실성을 갖춘 검색 증강 생성 모델을 활용한 학술 논문 처리
PT-RAG: Structure-Fidelity Retrieval-Augmented Generation for Academic Papers
검색 증강 생성(RAG) 기술은 장문의 학술 논문에 대한 질의 응답에 점점 더 많이 활용되고 있으며, 고정된 토큰 예산 하에서 정확한 증거 할당이 매우 중요합니다. 기존 접근 방식은 일반적으로 전처리 과정에서 학술 논문을 비정형 덩어리로 분할하는데, 이는 원래의 계층 구조를 파괴합니다. 이러한 파괴는 검색이 무질서한 공간에서 작동하도록 하여 단편적인 문맥을 생성하고, 제한된 토큰 예산 하에서 증거가 없는 영역에 토큰을 잘못 할당하며, 후속 언어 모델의 추론 부담을 증가시킵니다. 이러한 문제를 해결하기 위해, 우리는 학술 논문의 고유한 계층 구조를 낮은 엔트로피의 검색 사전 지식으로 활용하는 RAG 프레임워크인 PT-RAG를 제안합니다. PT-RAG는 먼저 고유한 계층 구조를 활용하여 구조적 충실성을 갖춘 PaperTree 인덱스를 구축함으로써, 정보 소스에서의 엔트로피 증가를 방지합니다. 또한, PT-RAG는 쿼리 의미를 관련 섹션에 연결하고 고정된 토큰 예산 하에서 높은 관련성을 갖는 루트-리프 경로를 선택하는 경로 기반 검색 메커니즘을 설계하여, 간결하고 일관성 있으며 엔트로피가 낮은 검색 문맥을 생성합니다. 기존의 RAG 접근 방식과 달리, PT-RAG는 파괴적인 전처리로 인한 엔트로피 증가를 피하고, 후속 검색을 위한 고유한 낮은 엔트로피의 구조적 기반을 제공합니다. 이러한 설계의 효과를 평가하기 위해, 우리는 검색의 단편화 및 증거 할당 정확도를 정량화하는 엔트로피 기반의 구조적 진단 도구를 도입했습니다. 세 가지 학술 질의 응답 벤치마크에서, PT-RAG는 강력한 기준 모델보다 지속적으로 낮은 섹션 엔트로피와 증거 정렬 교차 엔트로피를 달성했으며, 이는 문맥의 단편화 감소와 증거 영역에 대한 더욱 정확한 할당을 나타냅니다. 이러한 구조적 이점은 직접적으로 답변 품질 향상으로 이어집니다.
Retrieval-augmented generation (RAG) is increasingly applied to question-answering over long academic papers, where accurate evidence allocation under a fixed token budget is critical. Existing approaches typically flatten academic papers into unstructured chunks during preprocessing, which destroys the native hierarchical structure. This loss forces retrieval to operate in a disordered space, thereby producing fragmented contexts, misallocating tokens to non-evidential regions under finite token budgets, and increasing the reasoning burden for downstream language models. To address these issues, we propose PT-RAG, an RAG framework that treats the native hierarchical structure of academic papers as a low-entropy retrieval prior. PT-RAG first inherits the native hierarchy to construct a structure-fidelity PaperTree index, which prevents entropy increase at the source. It then designs a path-guided retrieval mechanism that aligns query semantics to relevant sections and selects high relevance root-to-leaf paths under a fixed token budget, yielding compact, coherent, and low-entropy retrieval contexts. In contrast to existing RAG approaches, PT-RAG avoids entropy increase caused by destructive preprocessing and provides a native low-entropy structural basis for subsequent retrieval. To assess this design, we introduce entropy-based structural diagnostics that quantify retrieval fragmentation and evidence allocation accuracy. On three academic question-answering benchmarks, PT-RAG achieves consistently lower section entropy and evidence alignment cross entropy than strong baselines, indicating reduced context fragmentation and more precise allocation to evidential regions. These structural advantages directly translate into higher answer quality.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.