CoWork-X: 경험 최적화 기반의 다중 에이전트 협업 시스템을 위한 공동 진화
CoWork-X: Experience-Optimized Co-Evolution for Multi-Agent Collaboration System
대규모 언어 모델은 대화형 환경에서 언어 기반 에이전트를 가능하게 하지만, 고도의 협업 작업은 종종 다음과 같은 두 가지 제약 조건을 동시에 요구합니다. 즉, 서브 초 단위의 실시간 조정과 엄격한 온라인 토큰 예산 하에서의 지속적인 다중 에피소드 적응입니다. 기존 접근 방식은 에피소드 내 빈번한 추론으로 인한 지연 및 시간 지터를 유발하거나, 구조화되지 않은 텍스트를 통해 에피소드 후 개선을 제공하지만, 이는 신뢰할 수 있는 저비용 실행으로 컴파일하기 어렵습니다. 본 논문에서는 fast-slow 메모리 분리에서 영감을 받은, 피어 간 협업을 에피소드 간 폐쇄 루프 최적화 문제로 간주하는 능동적 공동 진화 프레임워크인 CoWork-X를 제안합니다. CoWork-X는 구조화되고 해석 가능하며 조립 가능한 기술 라이브러리로부터 HTN(계층적 작업 네트워크) 기반의 기술 검색을 통해 실행되는 Skill-Agent와, 명시적인 예산 제약 및 드리프트 규제와 함께 패치 스타일의 기술 통합을 수행하는 에피소드 후 Co-Optimizer로 구성됩니다. 어려운 Overcooked-AI와 유사한 실시간 협업 벤치마크에서 수행된 실험 결과, CoWork-X는 안정적인 누적 성능 향상을 달성하면서 온라인 지연 및 토큰 사용량을 꾸준히 줄이는 것으로 나타났습니다.
Large language models are enabling language-conditioned agents in interactive environments, but highly cooperative tasks often impose two simultaneous constraints: sub-second real-time coordination and sustained multi-episode adaptation under a strict online token budget. Existing approaches either rely on frequent in-episode reasoning that induces latency and timing jitter, or deliver post-episode improvements through unstructured text that is difficult to compile into reliable low-cost execution. We propose CoWork-X, an active co-evolution framework that casts peer collaboration as a closed-loop optimization problem across episodes, inspired by fast--slow memory separation. CoWork-X instantiates a Skill-Agent that executes via HTN (hierarchical task network)-based skill retrieval from a structured, interpretable, and compositional skill library, and a post-episode Co-Optimizer that performs patch-style skill consolidation with explicit budget constraints and drift regularization. Experiments in challenging Overcooked-AI-like realtime collaboration benchmarks demonstrate that CoWork-X achieves stable, cumulative performance gains while steadily reducing online latency and token usage.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.