PseudoAct: 의사코드 생성을 활용한 유연한 계획 및 행동 제어: 대규모 언어 모델 에이전트
PseudoAct: Leveraging Pseudocode Synthesis for Flexible Planning and Action Control in Large Language Model Agents
대규모 언어 모델(LLM) 에이전트는 일반적으로 ReAct와 같이 반응형 의사 결정 방식을 사용하며, 실행 기록에 따라 행동을 선택합니다. 이러한 방식은 짧은 작업에는 효과적이지만, 분기, 반복 또는 다중 도구 조정이 필요한 복잡한 장기 작업에서는 종종 불필요한 도구 사용, 불안정한 추론, 높은 토큰 소비를 초래합니다. 이러한 제한 사항을 해결하기 위해, 본 논문에서는 LLM 에이전트의 유연한 계획 및 행동 제어를 위한 새로운 프레임워크인 PseudoAct를 소개합니다. PseudoAct는 LLM이 문제 해결 전략을 코드로 표현하는 능력을 활용하여, 작업을 하위 작업으로 분해하고 순차, 조건문, 루프, 병렬 처리 및 이러한 논리적 기본 요소의 조합을 명시적으로 인코딩하는 구조화된 의사코드 계획을 생성합니다. 행동은 이 글로벌 계획을 따라 실행되므로, 의사 결정 로직이 명확하고 시간적으로 일관성을 유지합니다. 이러한 설계는 불필요한 행동을 줄이고, 무한 루프를 방지하며, 정보가 부족한 대안 탐색을 피하여 일관되고 효율적인 장기 의사 결정을 가능하게 합니다. 벤치마크 데이터 세트에 대한 실험 결과, 제안하는 방법은 기존의 반응형 에이전트 접근 방식보다 훨씬 우수한 성능을 보이며, FEVER 데이터 세트에서 성공률이 20.93% 향상되었고, HotpotQA에서 새로운 최고 성능을 달성했습니다.
Large language model (LLM) agents typically rely on reactive decision-making paradigms such as ReAct, selecting actions conditioned on growing execution histories. While effective for short tasks, these approaches often lead to redundant tool usage, unstable reasoning, and high token consumption in complex long-horizon tasks involving branching, iteration, or multi-tool coordination. To address these limitations, this paper introduces PseudoAct, a novel framework for flexible planning and action control in LLM agents through pseudocode synthesis. Leveraging the ability of LLMs to express task-solving strategies as code, PseudoAct synthesizes a structured pseudocode plan that decomposes a task into subtasks and explicitly encodes control flow, including sequencing, conditionals, loops, parallel composition, and combinations of these logic primitives. Actions are then executed by following this global plan, making the decision logic explicit and temporally coherent. This design reduces redundant actions, prevents infinite loops, and avoids uninformative alternative exploration, enabling consistent and efficient long-horizon decision-making. Experiments on benchmark datasets show that our method significantly outperforms existing reactive agent approaches, achieving a 20.93% absolute gain in success rate on FEVER and setting a new state-of-the-art on HotpotQA.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.