DropoutTS: 강건한 시계열 예측을 위한 표본 적응형 드롭아웃
DropoutTS: Sample-Adaptive Dropout for Robust Time Series Forecasting
심층 시계열 모델은 실제 애플리케이션 환경에 만연한 노이즈 데이터에 취약합니다. 기존의 강건성 확보 전략들은 데이터를 제거하거나 비용이 많이 드는 사전 정량화에 의존하여 효과와 효율성 사이의 균형을 맞추지 못했습니다. 본 논문에서는 '무엇을' 학습할 것인가에서 '얼마나' 학습할 것인가로 패러다임을 전환하는 모델 독립적 플러그인인 DropoutTS를 소개합니다. DropoutTS는 표본 적응형 드롭아웃 메커니즘을 사용합니다. 이는 스펙트럼 희소성을 활용해 재구성 잔차를 통해 인스턴스별 노이즈를 효율적으로 정량화하고, 노이즈를 적응형 드롭아웃 비율에 매핑하여 모델의 학습 용량을 동적으로 조정합니다. 이를 통해 세밀한 정보의 충실도는 유지하면서 불필요한 변동을 선택적으로 억제합니다. 다양한 노이즈 조건과 공개 벤치마크에 대한 광범위한 실험 결과, DropoutTS는 아키텍처 수정 없이 무시할 만한 파라미터 오버헤드만으로 우수한 백본 모델들의 성능을 일관되게 향상시키며 뛰어난 강건성을 제공하는 것으로 확인되었습니다. 코드는 https://github.com/CityMind-Lab/DropoutTS 에서 이용 가능합니다.
Deep time series models are vulnerable to noisy data ubiquitous in real-world applications. Existing robustness strategies either prune data or rely on costly prior quantification, failing to balance effectiveness and efficiency. In this paper, we introduce DropoutTS, a model-agnostic plugin that shifts the paradigm from "what" to learn to "how much" to learn. DropoutTS employs a Sample-Adaptive Dropout mechanism: leveraging spectral sparsity to efficiently quantify instance-level noise via reconstruction residuals, it dynamically calibrates model learning capacity by mapping noise to adaptive dropout rates - selectively suppressing spurious fluctuations while preserving fine-grained fidelity. Extensive experiments across diverse noise regimes and open benchmarks show DropoutTS consistently boosts superior backbones' performance, delivering advanced robustness with negligible parameter overhead and no architectural modifications. Our code is available at https://github.com/CityMind-Lab/DropoutTS.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.