사고 증강 함수 호출: 내재된 추론을 통한 LLM 파라미터 정확도 향상
Think-Augmented Function Calling: Improving LLM Parameter Accuracy Through Embedded Reasoning
대형 언어 모델(LLM)은 자율 에이전트를 위한 함수 호출에서 놀라운 능력을 보여주었지만, 현재의 메커니즘은 특히 상호 의존적인 파라미터를 가진 복잡한 함수의 경우 파라미터 생성 과정에서 명시적인 추론 투명성이 부족합니다. 생각의 사슬(Chain-of-Thought) 프롬프트와 같은 기존 접근 방식은 에이전트 수준에서 작동하지만, 개별 함수 파라미터에 대한 세밀한 추론 지침을 제공하지 못합니다. 이러한 한계를 해결하기 위해, 우리는 함수 및 파라미터 수준 모두에서 명시적인 추론을 통해 함수 호출 정확도를 높이는 새로운 프레임워크인 TAFC(Think-Augmented Function Calling)를 제안합니다. 우리의 방법은 모델이 의사 결정 과정을 명확히 설명할 수 있도록 하는 범용 'think' 파라미터 증강을 도입하며, 추론 품질을 향상시키기 위해 파라미터 설명을 동적으로 최적화합니다. 복잡한 파라미터의 경우, TAFC는 복잡도 점수에 따라 세분화된 추론을 자동으로 트리거하여 중요한 결정에 대한 적절한 근거를 보장합니다. 또한, 생성된 추론을 인간의 기대와 일치시키기 위해 추론 유도 최적화를 제안합니다. TAFC는 기존 LLM에 대한 아키텍처 수정을 필요로 하지 않으며 전체 API 호환성을 유지합니다. 독점 및 오픈 소스 모델 전반에 걸친 ToolBench 평가 결과, 다중 파라미터 함수에 대한 파라미터 생성 정확도와 추론 일관성이 크게 향상되었으며, AI 에이전트 행동 디버깅을 위한 향상된 해석 가능성을 제공함을 입증했습니다.
Large language models (LLMs) have demonstrated remarkable capabilities in function calling for autonomous agents, yet current mechanisms lack explicit reasoning transparency during parameter generation, particularly for complex functions with interdependent parameters. While existing approaches like chain-of-thought prompting operate at the agent level, they fail to provide fine-grained reasoning guidance for individual function parameters. To address these limitations, we propose Think-Augmented Function Calling (TAFC), a novel framework that enhances function calling accuracy through explicit reasoning at both function and parameter levels. Our method introduces a universal "think" parameter augmentation that enables models to articulate their decision-making process, with dynamic optimization for parameter descriptions to improve reasoning quality. For complex parameters, TAFC automatically triggers granular reasoning based on complexity scoring, ensuring appropriate justification for critical decisions. Additionally, we propose reasoning-guided optimization to align generated reasoning with human expectations. TAFC requires no architectural modifications to existing LLMs while maintaining full API compatibility. Evaluation on ToolBench across proprietary and open-source models demonstrates significant improvements in parameter generation accuracy and reasoning coherence for multi-parameter functions, while providing enhanced interpretability for debugging AI agent behaviors.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.