Deploy-Master: 하루 만에 5만 개 이상의 사용 준비 완료 과학 도구를 자동 배포하는 시스템
Deploy-Master: Automating the Deployment of 50,000+ Agent-Ready Scientific Tools in One Day
오픈 소스 과학 소프트웨어는 풍부하지만, 대부분의 도구는 컴파일, 구성 및 재사용이 어려워 소규모 연구 환경에 머물러 있습니다. 이러한 배포 병목 현상은 재현성, 대규모 평가 및 과학 도구를 최신 AI-for-Science (AI4S) 및 에이전트 기반 워크플로우에 통합하는 데 걸림돌이 됩니다. 본 논문에서는 대규모 도구 검색, 빌드 사양 추론, 실행 기반 검증 및 출판을 위한 통합 에이전트 기반 워크플로우인 Deploy-Master를 소개합니다. 90개 이상의 과학 및 공학 분야를 아우르는 분류 체계를 기반으로, 우리의 검색 단계는 50만 개 이상의 공개 저장소에서 시작하여 리콜 지향적인 방식으로 검색하고, 라이선스 및 품질 관련 기준을 통해 필터링하여 52,550개의 실행 가능한 도구 후보를 식별합니다. Deploy-Master는 다양한 오픈 소스 저장소를 문서 기반 주장이 아닌 실행을 기반으로 하는 실행 가능한 컨테이너화된 기능으로 변환합니다. 단 하루 만에 52,550번의 빌드 시도를 수행하고 50,112개의 과학 도구에 대한 재현 가능한 런타임 환경을 구축했습니다. 각 성공적인 도구는 최소 실행 명령을 통해 검증되고 SciencePedia에 등록되어 검색 및 재사용이 가능하며, 이를 통해 직접적인 인간 사용과 선택적인 에이전트 기반 호출이 가능합니다. 실행 가능한 도구를 제공하는 것 외에도, 5만 개의 도구를 대상으로 한 배포 과정을 분석하여 처리량, 비용 프로필, 실패 요인 및 사양 불확실성을 파악합니다. 이러한 결과는 왜 과학 소프트웨어가 운영화하기 어려운지 설명하고, 확장 가능한 AI4S 및 에이전트 기반 과학을 위한 기반으로 공유 가능한 관찰 가능한 실행 환경의 필요성을 강조합니다.
Open-source scientific software is abundant, yet most tools remain difficult to compile, configure, and reuse, sustaining a small-workshop mode of scientific computing. This deployment bottleneck limits reproducibility, large-scale evaluation, and the practical integration of scientific tools into modern AI-for-Science (AI4S) and agentic workflows. We present Deploy-Master, a one-stop agentic workflow for large-scale tool discovery, build specification inference, execution-based validation, and publication. Guided by a taxonomy spanning 90+ scientific and engineering domains, our discovery stage starts from a recall-oriented pool of over 500,000 public repositories and progressively filters it to 52,550 executable tool candidates under license- and quality-aware criteria. Deploy-Master transforms heterogeneous open-source repositories into runnable, containerized capabilities grounded in execution rather than documentation claims. In a single day, we performed 52,550 build attempts and constructed reproducible runtime environments for 50,112 scientific tools. Each successful tool is validated by a minimal executable command and registered in SciencePedia for search and reuse, enabling direct human use and optional agent-based invocation. Beyond delivering runnable tools, we report a deployment trace at the scale of 50,000 tools, characterizing throughput, cost profiles, failure surfaces, and specification uncertainty that become visible only at scale. These results explain why scientific software remains difficult to operationalize and motivate shared, observable execution substrates as a foundation for scalable AI4S and agentic science.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.