AutoAgent: 적응형 에이전트를 위한 진화하는 인지 능력 및 탄력적인 메모리 관리
AutoAgent: Evolving Cognition and Elastic Memory Orchestration for Adaptive Agents
자율 에이전트 프레임워크는 여전히 장기적인 경험 기반 학습과 실시간, 상황에 민감한 의사 결정을 조화시키는 데 어려움을 겪고 있습니다. 실제로 이러한 간극은 정적인 인지 능력, 경직된 워크플로우 의존성, 비효율적인 상황 활용으로 나타나며, 이는 개방형 및 비정상 환경에서 적응성을 제한합니다. 이러한 한계를 극복하기 위해, 우리는 세 가지 핵심 요소, 즉 진화하는 인지 능력, 실시간 상황 기반 의사 결정, 그리고 탄력적인 메모리 관리로 구성된 자가 진화형 다중 에이전트 프레임워크인 AutoAgent를 제안합니다. AutoAgent의 핵심은 각 에이전트가 도구, 자체 기능, 동료 전문 지식, 작업 지식에 대한 구조화된 프롬프트 수준의 인지 능력을 유지한다는 것입니다. 실행 중에 이러한 인지 능력은 실시간 작업 컨텍스트와 결합되어 도구 호출, LLM 기반 생성, 에이전트 간 요청을 포함하는 통합 공간에서 작업을 선택합니다. 효율적인 장기적인 추론을 지원하기 위해, 탄력적인 메모리 오케스트레이터는 원시 기록을 보존하고, 중복 경로를 압축하고, 재사용 가능한 에피소드 추상화를 구성하여 상호 작용 기록을 동적으로 관리함으로써 토큰 오버헤드를 줄이면서 의사 결정에 중요한 증거를 유지합니다. 이러한 구성 요소는 의도된 행동과 관찰된 결과를 연결하는 폐루프 인지 진화 프로세스를 통해 통합되어, 외부 재훈련 없이 인지 능력을 지속적으로 업데이트하고 재사용 가능한 기술을 확장합니다. 검색 증강 추론, 도구 기반 에이전트 벤치마크, 그리고 실제 환경에서의 실험 결과는 AutoAgent가 정적 및 메모리 기반 기준 에이전트에 비해 일관되게 작업 성공률, 도구 사용 효율성, 그리고 협업 안정성을 향상시킨다는 것을 보여줍니다. 종합적으로, AutoAgent는 경험을 통해 학습하면서 역동적인 환경에서 신뢰할 수 있는 상황 인지적 의사 결정을 내려야 하는 적응형 자율 에이전트를 위한 통합적이고 실용적인 기반을 제공합니다.
Autonomous agent frameworks still struggle to reconcile long-term experiential learning with real-time, context-sensitive decision-making. In practice, this gap appears as static cognition, rigid workflow dependence, and inefficient context usage, which jointly limit adaptability in open-ended and non-stationary environments. To address these limitations, we present AutoAgent, a self-evolving multi-agent framework built on three tightly coupled components: evolving cognition, on-the-fly contextual decision-making, and elastic memory orchestration. At the core of AutoAgent, each agent maintains structured prompt-level cognition over tools, self-capabilities, peer expertise, and task knowledge. During execution, this cognition is combined with live task context to select actions from a unified space that includes tool calls, LLM-based generation, and inter-agent requests. To support efficient long-horizon reasoning, an Elastic Memory Orchestrator dynamically organizes interaction history by preserving raw records, compressing redundant trajectories, and constructing reusable episodic abstractions, thereby reducing token overhead while retaining decision-critical evidence. These components are integrated through a closed-loop cognitive evolution process that aligns intended actions with observed outcomes to continuously update cognition and expand reusable skills, without external retraining. Empirical results across retrieval-augmented reasoning, tool-augmented agent benchmarks, and embodied task environments show that AutoAgent consistently improves task success, tool-use efficiency, and collaborative robustness over static and memory-augmented baselines. Overall, AutoAgent provides a unified and practical foundation for adaptive autonomous agents that must learn from experience while making reliable context-aware decisions in dynamic environments.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.