교차 도메인 에이전트 워크플로우 생성을 위한 학습 방법
Learning to Compose for Cross-domain Agentic Workflow Generation
자동으로 에이전트 워크플로우를 생성하는 것은 추론, 검증 및 복구를 조율하는 실행 가능한 연산자 그래프 또는 코드를 활용하여 단일 패스 LLM 생성으로는 해결하기 어려운 복잡한 작업을 해결하는 실용적인 방법이 되었습니다. 그러나 좋은 워크플로우가 무엇을 구성하는지는 작업 분포와 사용 가능한 연산자에 크게 의존합니다. 도메인 변화 시, 현재 시스템은 일반적으로 대규모 워크플로우 공간에서 실행 가능한 워크플로우를 찾기 위해 반복적인 워크플로우 개선에 의존하며, 이는 높은 반복 비용을 발생시키고 불안정하고 도메인 특이적인 동작을 초래합니다. 이에 대한 대응으로, 우리는 교차 도메인 워크플로우 생성을 위해 오픈 소스 LLM에 분해-재조합-결정 메커니즘을 내재화했습니다. 분해 단계에서는 다양한 도메스에 걸쳐 재사용 가능한 워크플로우 기능을 학습하고, 재조합 단계에서는 각 입력 작업을 이러한 기본 기능에 대한 희소한 조합으로 매핑하여 단일 패스에서 작업별 워크플로우를 생성합니다. 결정 단계에서는 학습된 기능에서 비롯된 반사실적 기여도를 통해 워크플로우 생성의 성공 또는 실패를 판단하여, 실제로 성공을 이끄는 기능과 그 주변 효과를 파악합니다. 엄격한 다중 도메인, 교차 도메인 및 미지의 도메인 평가에서, 우리의 1회 생성 모델은 20회 반복을 수행하는 최첨단 개선 기반 모델보다 뛰어난 성능을 보이며, 생성 지연 시간과 비용을 크게 줄입니다.
Automatically generating agentic workflows -- executable operator graphs or codes that orchestrate reasoning, verification, and repair -- has become a practical way to solve complex tasks beyond what single-pass LLM generation can reliably handle. Yet what constitutes a good workflow depends heavily on the task distribution and the available operators. Under domain shift, current systems typically rely on iterative workflow refinement to discover a feasible workflow from a large workflow space, incurring high iteration costs and yielding unstable, domain-specific behavior. In response, we internalize a decompose-recompose-decide mechanism into an open-source LLM for cross-domain workflow generation. To decompose, we learn a compact set of reusable workflow capabilities across diverse domains. To recompose, we map each input task to a sparse composition over these bases to generate a task-specific workflow in a single pass. To decide, we attribute the success or failure of workflow generation to counterfactual contributions from learned capabilities, thereby capturing which capabilities actually drive success by their marginal effects. Across stringent multi-domain, cross-domain, and unseen-domain evaluations, our 1-pass generator surpasses SOTA refinement baselines that consume 20 iterations, while substantially reducing generation latency and cost.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.