2602.12574v1 Feb 13, 2026 cs.DB

대화형 텍스트-NoSQL 변환을 위한 추론 경로 개선 Monte Carlo 트리 탐색: 소규모 언어 모델 활용

Monte Carlo Tree Search with Reasoning Path Refinement for Small Language Models in Conversational Text-to-NoSQL

Xubang Xiong
Xubang Xiong
Citations: 0
h-index: 0
Raymond Chi-Wing Wong
Raymond Chi-Wing Wong
Citations: 167
h-index: 6
Yuanfeng Song
Yuanfeng Song
Citations: 8
h-index: 2

NoSQL 데이터베이스는 유연성과 확장성 덕분에 빅데이터 분석, 지리 공간 애플리케이션 및 의료 서비스 분야에서 널리 사용되고 있습니다. 그러나 NoSQL 데이터베이스에 대한 쿼리 생성은 전문적인 기술 지식을 필요로 하며, 이는 사용자에게 높은 진입 장벽을 만듭니다. 최근 연구에서는 텍스트-NoSQL 문제를 탐구했지만, 대부분 단일 턴 상호 작용에 초점을 맞추고 실제 쿼리의 대화형 특성을 간과했습니다. 이러한 간극을 해소하기 위해, 본 논문에서는 자연어 질문, NoSQL 데이터베이스 및 대화 기록을 기반으로 NoSQL 쿼리를 생성하는 대화형 텍스트-NoSQL 변환(Conversational Text-to-NoSQL) 문제를 제안합니다. 이 문제를 해결하기 위해, 우리는 소규모 언어 모델(SLM)에 NoSQL 관련 추론 능력을 부여하는 프레임워크인 Stage-MCTS를 제안합니다. 이 프레임워크는 쿼리 생성을 탐색 문제로 구성하고, 규칙 기반 보상을 통해 Monte Carlo 트리 탐색(MCTS)을 사용하여 단계별 추론 데이터를 생성하며, 이후 점진적인 지도 학습(SFT) 및 자체 학습 전략을 적용합니다. 또한, 2,000개 이상의 대화와 150개의 데이터베이스를 포함하는 교차 도메인 데이터셋인 CoNoSQL을 구축하여 평가를 지원합니다. 실험 결과, 제안하는 방법은 최첨단 대규모 추론 모델보다 뛰어난 성능을 보이며, 실행 값 일치(EVM) 정확도를 최대 7.93% 향상시켰습니다.

Original Abstract

NoSQL databases have been widely adopted in big data analytics, geospatial applications, and healthcare services, due to their flexibility and scalability. However, querying NoSQL databases requires specialized technical expertise, creating a high barrier for users. While recent studies have explored text-to-NoSQL problem, they primarily focus on single-turn interactions, ignoring the conversational nature of real-world queries. To bridge this gap, we introduce the Conversational Text-to-NoSQL task, which generates NoSQL queries given a natural language question, a NoSQL database, and the dialogue history. To address this task, we propose Stage-MCTS, a framework that endows small language models (SLMs) with NoSQL-specific reasoning capabilities by formulating query generation as a search problem. The framework employs Monte Carlo Tree Search (MCTS) guided by a rule-based reward to produce stepwise reasoning data, followed by progressive supervised fine-tuning (SFT) and self-training strategies. We further construct CoNoSQL, a cross-domain dataset with over 2,000 dialogues and 150 databases, to support evaluation. Experiments demonstrate that our approach outperforms state-of-the-art large reasoning models, improving execution value match (EVM) accuracy by up to 7.93%.

0 Citations
0 Influential
3 Altmetric
15.0 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!