2602.10485v1 Feb 11, 2026 cs.AI

사전 학습된 대규모 언어 모델을 이용한 일반화 계획을 위한 추상화 생성

Abstraction Generation for Generalized Planning with Pretrained Large Language Models

Kailun Luo
Kailun Luo
Citations: 4
h-index: 2
Han Shen
Han Shen
Citations: 47
h-index: 2
Zhenhe Cui
Zhenhe Cui
Citations: 16
h-index: 2
Yong He
Yong He
Citations: 11
h-index: 2
Hua Xia
Hua Xia
Citations: 0
h-index: 0
Wei Liang
Wei Liang
Citations: 2,051
h-index: 3

정성적 수치 계획(QNP)은 여러 인스턴스를 한 번에 해결하는 일반적인 계획을 계산하는 것을 목표로 하는 일반화 계획(GP)의 중요한 추상화 모델 역할을 한다. 최근 연구들은 대규모 언어 모델(LLM)이 일반화된 계획 수립기로서 기능할 수 있음을 보여주었다. 본 연구는 LLM이 GP 문제를 위한 QNP 추상화 생성기 역할을 할 수 있는지, 그리고 자동화된 디버깅을 통해 추상화를 수정하는 방법을 탐구한다. 우리는 GP 도메인과 훈련 태스크를 LLM에 입력하여 추상적 특징을 생성하고, 더 나아가 초기 상태, 행동 집합, 목표를 QNP 문제로 추상화하도록 유도하는 프롬프트 프로토콜을 제안한다. 또한 추상화 오류를 감지하여 LLM이 이를 수정하도록 안내하는 자동화된 디버깅 방법을 설계하였다. 실험을 통해, 자동화된 디버깅의 적절한 안내가 있을 경우 일부 LLM이 유용한 QNP 추상화를 생성할 수 있음을 입증하였다.

Original Abstract

Qualitative Numerical Planning (QNP) serves as an important abstraction model for generalized planning (GP), which aims to compute general plans that solve multiple instances at once. Recent works show that large language models (LLMs) can function as generalized planners. This work investigates whether LLMs can serve as QNP abstraction generators for GP problems and how to fix abstractions via automated debugging. We propose a prompt protocol: input a GP domain and training tasks to LLMs, prompting them to generate abstract features and further abstract the initial state, action set, and goal into QNP problems. An automated debugging method is designed to detect abstraction errors, guiding LLMs to fix abstractions. Experiments demonstrate that under properly guided by automated debugging, some LLMs can generate useful QNP abstractions.

0 Citations
0 Influential
1.5 Altmetric
7.5 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!