멀리 내다보려면 가까이 보라: 장기 시계열 예측을 위한 진화적 예측
To See Far, Look Close: Evolutionary Forecasting for Long-term Time Series
현재의 직접 예측(Direct Forecasting, DF) 패러다임은 모델이 단일 단계로 전체 미래 예측 범위를 예측하도록 강제함으로써 장기 시계열 예측(Long-term Time Series Forecasting, LTSF)을 지배하고 있습니다. 효율적이지만, 이러한 출력 및 평가 범위의 엄격한 결합은 모든 대상 범위에 대해 계산적으로 엄청난 재학습을 요구합니다. 본 연구에서는 직관에 반하는 최적화 이상 현상을 발견했습니다. 즉, 짧은 범위로 학습된 모델은 제안하는 진화적 예측(Evolutionary Forecasting, EF) 패러다임과 결합될 때, 직접적으로 장기 범위로 학습된 모델보다 훨씬 뛰어난 성능을 보입니다. 이러한 성공은 DF에 내재된 근본적인 최적화 문제, 즉 먼 미래에서 발생하는 상충되는 기울기가 로컬 동역학 학습을 방해하는 문제를 완화하기 때문이라고 설명합니다. 우리는 EF를 통합적인 생성 프레임워크로 확립하고, DF가 EF의 단순한 특수한 경우임을 증명합니다. 광범위한 실험을 통해 단일 EF 모델이 표준 벤치마크에서 작업별 DF 앙상블보다 우수한 성능을 보이며, 극단적인 외삽 환경에서도 강력한 비동적 안정성을 나타냄을 보여줍니다. 본 연구는 LTSF의 패러다임을 전환시킵니다. 즉, 수동적인 정적 매핑에서 자율적인 진화적 추론으로 나아가는 것입니다.
The prevailing Direct Forecasting (DF) paradigm dominates Long-term Time Series Forecasting (LTSF) by forcing models to predict the entire future horizon in a single forward pass. While efficient, this rigid coupling of output and evaluation horizons necessitates computationally prohibitive re-training for every target horizon. In this work, we uncover a counter-intuitive optimization anomaly: models trained on short horizons-when coupled with our proposed Evolutionary Forecasting (EF) paradigm-significantly outperform those trained directly on long horizons. We attribute this success to the mitigation of a fundamental optimization pathology inherent in DF, where conflicting gradients from distant futures cripple the learning of local dynamics. We establish EF as a unified generative framework, proving that DF is merely a degenerate special case of EF. Extensive experiments demonstrate that a singular EF model surpasses task-specific DF ensembles across standard benchmarks and exhibits robust asymptotic stability in extreme extrapolation. This work propels a paradigm shift in LTSF: moving from passive Static Mapping to autonomous Evolutionary Reasoning.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.