DRAGON: 대규모 조합 최적화를 위한 LLM 주도 분해 및 재구성 에이전트
DRAGON: LLM-Driven Decomposition and Reconstruction Agents for Large-Scale Combinatorial Optimization
대규모 언어 모델(LLM)은 최근 프롬프트 기반 전략을 통해 조합 최적화 문제(COP) 해결에 있어 가능성을 보여주었습니다. 그러나 확장성과 일반화에는 여전히 한계가 있으며, 특히 30개 이상의 노드를 포함하는 경로 탐색 문제와 같이 문제의 크기가 커질수록 효율성이 감소합니다. 본 연구는 메타휴리스틱 설계의 강점과 LLM 추론을 결합한 새로운 프레임워크인 DRAGON(Decomposition and Reconstruction Agents Guided OptimizatioN)을 제안합니다. 초기 전역 솔루션에서 시작하여, DRAGON은 최적화 잠재력이 높은 영역을 자율적으로 식별하고 대규모 COP를 관리 가능한 하위 문제로 전략적으로 분해합니다. 각 하위 문제는 간결한 국소 최적화 작업으로 재구성되며, 축적된 경험을 바탕으로 한 타겟 LLM 프롬프팅을 통해 해결됩니다. 마지막으로, 국소적으로 최적화된 솔루션들은 체계적으로 원래의 전역 문맥에 다시 통합되어 상당히 개선된 전체 결과를 산출합니다. 최적화 환경과 지속적으로 상호 작용하고 적응형 경험 메모리를 활용함으로써, 에이전트들은 피드백으로부터 반복적으로 학습하며 기호적 추론과 휴리스틱 탐색을 효과적으로 결합합니다. 실증적 결과에 따르면, 소규모 인스턴스에 국한된 기존 LLM 기반 솔버와 달리 DRAGON은 TSPLIB, CVRPLIB 및 Weibull-5k 빈 패킹(bin packing) 벤치마크에서 일관되게 실행 가능한 솔루션을 생성하며, 300만 개 이상의 변수가 있는 배낭 문제(knapsack problems)에서 최적에 가까운 결과(0.16% 격차)를 달성함을 보여줍니다. 본 연구는 일반화 가능하고 해석 가능한 대규모 최적화를 위한 새로운 패러다임으로서 피드백 주도형 언어 에이전트의 잠재력을 시사합니다.
Large Language Models (LLMs) have recently shown promise in addressing combinatorial optimization problems (COPs) through prompt-based strategies. However, their scalability and generalization remain limited, and their effectiveness diminishes as problem size increases, particularly in routing problems involving more than 30 nodes. We propose DRAGON, which stands for Decomposition and Reconstruction Agents Guided OptimizatioN, a novel framework that combines the strengths of metaheuristic design and LLM reasoning. Starting from an initial global solution, DRAGON autonomously identifies regions with high optimization potential and strategically decompose large-scale COPs into manageable subproblems. Each subproblem is then reformulated as a concise, localized optimization task and solved through targeted LLM prompting guided by accumulated experiences. Finally, the locally optimized solutions are systematically reintegrated into the original global context to yield a significantly improved overall outcome. By continuously interacting with the optimization environment and leveraging an adaptive experience memory, the agents iteratively learn from feedback, effectively coupling symbolic reasoning with heuristic search. Empirical results show that, unlike existing LLM-based solvers limited to small-scale instances, DRAGON consistently produces feasible solutions on TSPLIB, CVRPLIB, and Weibull-5k bin packing benchmarks, and achieves near-optimal results (0.16% gap) on knapsack problems with over 3M variables. This work shows the potential of feedback-driven language agents as a new paradigm for generalizable and interpretable large-scale optimization.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.