경험 기반 자기 기술 발견을 통한 의료 영상 진단 기술의 진화
Evolving Medical Imaging Agents via Experience-driven Self-skill Discovery
임상 영상 해석은 본질적으로 다단계적이며 도구 중심적인 과정입니다. 의료진은 시각적 증거와 환자 정보를 반복적으로 결합하고, 발견 사항을 정량화하며, 일련의 전문적인 절차를 통해 의사 결정을 개선합니다. LLM 기반 에이전트는 이러한 다양한 의료 도구를 조정할 수 있는 잠재력을 가지고 있지만, 기존 시스템은 도구 세트 및 호출 전략을 배포 후에는 정적으로 취급합니다. 이러한 설계는 실제 환경에서의 도메인 변화, 다양한 작업, 그리고 진화하는 진단 요구 사항에 취약하며, 미리 정의된 도구 체인은 종종 성능 저하를 일으켜 비용이 많이 드는 수동 재설계를 요구합니다. 본 연구에서는 MACRO라는 자기 진화형, 경험 기반 의료 에이전트를 제안합니다. MACRO는 정적인 도구 조합에서 경험 기반 도구 발견으로 전환합니다. 검증된 실행 경로를 통해, 에이전트는 반복적으로 효과적인 다단계 도구 시퀀스를 자동으로 식별하고, 이를 재사용 가능한 복합 도구로 합성하며, 이러한 복합 도구를 새로운 고수준 원시 기능으로 등록하여 에이전트의 행동 레퍼토리를 지속적으로 확장합니다. 경량화된 이미지-특징 메모리는 도구 선택을 시각-임상 맥락에 기반하도록 하며, GRPO와 유사한 학습 루프는 발견된 복합 도구의 안정적인 호출을 강화하여 최소한의 감독 하에 폐쇄 루프 자기 개선을 가능하게 합니다. 다양한 의료 영상 데이터 세트 및 작업에 대한 광범위한 실험 결과, 자율적인 복합 도구 발견은 강력한 기준 및 최첨단 에이전트 방법보다 다단계 조정 정확도와 다양한 도메인에서의 일반화 능력을 꾸준히 향상시켜, 불안정한 정적 도구 사용과 적응적이고 상황 인지적인 임상 AI 지원 사이의 격차를 해소합니다. 논문 게재 시 코드를 공개할 예정입니다.
Clinical image interpretation is inherently multi-step and tool-centric: clinicians iteratively combine visual evidence with patient context, quantify findings, and refine their decisions through a sequence of specialized procedures. While LLM-based agents promise to orchestrate such heterogeneous medical tools, existing systems treat tool sets and invocation strategies as static after deployment. This design is brittle under real-world domain shifts, across tasks, and evolving diagnostic requirements, where predefined tool chains frequently degrade and demand costly manual re-design. We propose MACRO, a self-evolving, experience-augmented medical agent that shifts from static tool composition to experience-driven tool discovery. From verified execution trajectories, the agent autonomously identifies recurring effective multi-step tool sequences, synthesizes them into reusable composite tools, and registers these as new high-level primitives that continuously expand its behavioral repertoire. A lightweight image-feature memory grounds tool selection in a visual-clinical context, while a GRPO-like training loop reinforces reliable invocation of discovered composites, enabling closed-loop self-improvement with minimal supervision. Extensive experiments across diverse medical imaging datasets and tasks demonstrate that autonomous composite tool discovery consistently improves multi-step orchestration accuracy and cross-domain generalization over strong baselines and recent state-of-the-art agentic methods, bridging the gap between brittle static tool use and adaptive, context-aware clinical AI assistance. Code will be available upon acceptance.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.