CORE-T: 텍스트-SQL 변환을 위한 테이블의 일관성 있는 검색
CORE-T: COherent REtrieval of Tables for Text-to-SQL
실제 텍스트-SQL 워크플로우는 종종 여러 테이블을 결합해야 합니다. 결과적으로, 관련 테이블 집합을 정확하게 검색하는 것은 전체 성능의 주요 병목 현상이 됩니다. 본 연구에서는 데이터베이스 식별자와 같은 명확한 범위 지정 신호 없이, 다양한 출처에서 수집된 대규모의 이질적인 테이블 컬렉션에 대한 쿼리에 답해야 하는 개방형 학습 환경을 다룹니다. 여기서 밀집 검색(DR)은 높은 재현율을 달성하지만 많은 불필요한 결과를 반환하며, 조인-인식 방식은 종종 추가적인 가정이나 높은 추론 오버헤드를 필요로 합니다. 우리는 LLM이 생성한 목적 메타데이터로 테이블을 풍부하게 하고 가벼운 테이블 호환성 캐시를 미리 계산하는 확장 가능하고 학습이 필요 없는 프레임워크인 CORE-T를 제안합니다. 추론 시, DR은 상위 K개의 후보를 반환합니다. 단일 LLM 호출을 통해 일관되고 결합 가능한 부분 집합을 선택하고, 간단한 가법 조정 단계를 통해 강하게 호환되는 테이블을 복원합니다. Bird, Spider, 및 MMQA 데이터셋에서 CORE-T는 테이블 선택 F1 점수를 최대 22.7 포인트 향상시키고 테이블 검색 횟수를 최대 42% 줄이며, Bird 데이터셋에서 멀티 테이블 실행 정확도를 최대 5.0 포인트, MMQA 데이터셋에서 최대 6.9 포인트 향상시킵니다. 또한 LLM을 많이 사용하는 기존 방식보다 4~5배 적은 토큰을 사용합니다.
Realistic text-to-SQL workflows often require joining multiple tables. As a result, accurately retrieving the relevant set of tables becomes a key bottleneck for end-to-end performance. We study an open-book setting where queries must be answered over large, heterogeneous table collections pooled from many sources, without clean scoping signals such as database identifiers. Here, dense retrieval (DR) achieves high recall but returns many distractors, while join-aware alternatives often rely on extra assumptions and/or incur high inference overhead. We propose CORE-T, a scalable, training-free framework that enriches tables with LLM-generated purpose metadata and pre-computes a lightweight table-compatibility cache. At inference time, DR returns top-K candidates; a single LLM call selects a coherent, joinable subset, and a simple additive adjustment step restores strongly compatible tables. Across Bird, Spider, and MMQA, CORE-T improves table-selection F1 by up to 22.7 points while retrieving up to 42% fewer tables, improving multi-table execution accuracy by up to 5.0 points on Bird and 6.9 points on MMQA, and using 4-5x fewer tokens than LLM-intensive baselines.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.