2601.21475v2 Jan 29, 2026 cs.NE

작업(Task)에 구애받지 않는 적응형 메타 블랙박스 최적화

Task-free Adaptive Meta Black-box Optimization

Chao Wang
Chao Wang
Citations: 111
h-index: 6
Licheng Jiao
Licheng Jiao
Citations: 820
h-index: 15
Lingling Li
Lingling Li
Citations: 6,047
h-index: 41
Jiaxuan Zhao
Jiaxuan Zhao
Citations: 327
h-index: 11
Guanchun Wang
Guanchun Wang
Citations: 150
h-index: 6
Fang Liu
Fang Liu
Citations: 1,309
h-index: 20
Shuyuan Yang
Shuyuan Yang
Citations: 10,621
h-index: 50

수작업으로 설계된 최적화 알고리즘은 복잡한 블랙박스 최적화(BBO) 작업에 대해 심각한 비효율성을 초래합니다. MetaBBO는 메타 학습을 통해 저수준 BBO 작업에 대한 최적화 알고리즘을 자동으로 구성하여 휴리스틱 의존성을 제거하는 방식으로 이 문제를 해결합니다. 그러나 기존 방법은 일반적으로 대상 작업에 대한 일반화 성능을 갖는 메타 전략을 학습하기 위해 광범위한 수작업 기반 학습 작업이 필요하며, 이는 알려지지 않은 작업 분포를 가진 실제 응용 분야에서 중요한 제약이 됩니다. 이 문제를 해결하기 위해, 우리는 대상 작업에서 얻은 최적화 데이터만을 사용하여 온라인으로 파라미터를 적응시키는 Adaptive meta Black-box Optimization Model (ABOM)을 제안합니다. 이를 통해 사전 정의된 작업 분포가 필요 없도록 합니다. 기존의 메타BBO 프레임워크가 메타 학습과 최적화 단계를 분리하는 것과는 달리, ABOM은 파라미터화된 진화 연산자가 최적화 과정에서 생성된 모집단을 활용하여 지속적으로 자체 업데이트하는 폐쇄 루프의 적응형 파라미터 학습 메커니즘을 도입합니다. 이러한 패러다임의 전환을 통해, ABOM은 수작업 기반 학습 작업 없이도 합성 BBO 벤치마크 및 실제 무인 항공기 경로 계획 문제에서 경쟁력 있는 성능을 달성하는 제로샷 최적화를 가능하게 합니다. 시각화 연구 결과, 파라미터화된 진화 연산자는 자연 선택 및 유전적 재조합을 포함한 통계적으로 유의미한 검색 패턴을 나타냅니다.

Original Abstract

Handcrafted optimizers become prohibitively inefficient for complex black-box optimization (BBO) tasks. MetaBBO addresses this challenge by meta-learning to automatically configure optimizers for low-level BBO tasks, thereby eliminating heuristic dependencies. However, existing methods typically require extensive handcrafted training tasks to learn meta-strategies that generalize to target tasks, which poses a critical limitation for realistic applications with unknown task distributions. To overcome the issue, we propose the Adaptive meta Black-box Optimization Model (ABOM), which performs online parameter adaptation using solely optimization data from the target task, obviating the need for predefined task distributions. Unlike conventional metaBBO frameworks that decouple meta-training and optimization phases, ABOM introduces a closed-loop adaptive parameter learning mechanism, where parameterized evolutionary operators continuously self-update by leveraging generated populations during optimization. This paradigm shift enables zero-shot optimization: ABOM achieves competitive performance on synthetic BBO benchmarks and realistic unmanned aerial vehicle path planning problems without any handcrafted training tasks. Visualization studies reveal that parameterized evolutionary operators exhibit statistically significant search patterns, including natural selection and genetic recombination.

1 Citations
0 Influential
25 Altmetric
126.0 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!