2604.23194v1 Apr 25, 2026 cs.AI

거시에서 미시로: LLM 에이전트를 위한 자기 적응형 계층적 계획

From Coarse to Fine: Self-Adaptive Hierarchical Planning for LLM Agents

Quanyu Dai
Quanyu Dai
Citations: 180
h-index: 7
Haoran Tan
Haoran Tan
Citations: 154
h-index: 4
Zeyu Zhang
Zeyu Zhang
Citations: 0
h-index: 0
Chen Ma
Chen Ma
Citations: 500
h-index: 3
Tianze Liu
Tianze Liu
Citations: 0
h-index: 0
Xu Chen
Xu Chen
Citations: 21
h-index: 3

최근, 대규모 언어 모델(LLM) 기반 에이전트는 동적이고 다단계 작업을 해결하는 강력한 방법으로 부상했습니다. 대부분의 기존 에이전트는 동적 환경에서 장기적인 행동을 안내하기 위해 계획 메커니즘을 사용합니다. 그러나 현재의 계획 접근 방식은 고정된 세분성 수준에서 작동한다는 근본적인 한계를 가지고 있습니다. 즉, 간단한 작업에는 지나치게 상세한 정보를 제공하거나, 복잡한 작업에는 충분하지 않은 정보를 제공하여 단순성과 복잡성 사이의 최적의 균형을 맞추지 못합니다. 인지 과학의 extit{점진적 정제} 원리에서 영감을 받아, 인간의 계획 전략을 모방하는 자기 적응형 계층적 계획 메커니즘인 **AdaPlan-H**를 제안합니다. 우리의 방법은 거칠게 정의된 개략적인 계획으로 시작하여 작업의 복잡성에 따라 점진적으로 세분화합니다. AdaPlan-H는 다양한 작업의 난이도 수준에 맞춰 자기 적응형 계층적 계획을 생성하며, 이는 모방 학습 및 능력 향상을 통해 최적화될 수 있습니다. 실험 결과는 우리의 방법이 작업 실행 성공률을 크게 향상시키면서 계획 단계에서의 과도한 계획을 완화하여 다단계 복잡한 의사 결정 작업에 대한 유연하고 효율적인 솔루션을 제공한다는 것을 보여줍니다. 연구 결과를 공유하기 위해, 코드와 데이터는 https://github.com/import-myself/AHP 에서 공개적으로 제공될 예정입니다.

Original Abstract

Large language model-based agents have recently emerged as powerful approaches for solving dynamic and multi-step tasks. Most existing agents employ planning mechanisms to guide long-term actions in dynamic environments. However, current planning approaches face a fundamental limitation that they operate at a fixed granularity level. Specifically, they either provide excessive detail for simple tasks or insufficient detail for complex ones, failing to achieve an optimal balance between simplicity and complexity. Drawing inspiration from the principle of \textit{progressive refinement} in cognitive science, we propose \textbf{AdaPlan-H}, a self-adaptive hierarchical planning mechanism that mimics human planning strategies. Our method initiates with a coarse-grained macro plan and progressively refines it based on task complexity. It generates self-adaptive hierarchical plans tailored to the varying difficulty levels of different tasks, which can be optimized by imitation learning and capability enhancement. Experimental results demonstrate that our method significantly improves task execution success rates while mitigating overplanning at the planning level, providing a flexible and efficient solution for multi-step complex decision-making tasks. To contribute to the community, our code and data will be made publicly available at https://github.com/import-myself/AHP.

0 Citations
0 Influential
23.5 Altmetric
117.5 Score
Original PDF
0

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!