LLM 기반 논리 규칙 학습: 시계열 이상 탐지를 위한 인간 전문 지식 확장
LLM-Assisted Logic Rule Learning: Scaling Human Expertise for Time Series Anomaly Detection
시계열 이상 탐지는 공급망 관리에 있어 선제적인 운영을 위해 매우 중요하지만, 다음과 같은 어려움에 직면합니다. 데이터 패턴을 활용하는 기존의 비지도 이상 탐지 방법은 종종 비즈니스 요구 사항 및 전문 지식과 일치하지 않는 결과를 초래하며, 수동 전문가 분석은 공급망 내 수백만 개의 제품에 대한 규모 확장에 한계가 있습니다. 본 논문에서는 대규모 언어 모델(LLM)을 활용하여 인간의 전문 지식을 해석 가능하고 논리 기반의 규칙으로 체계적으로 변환하여 공급망 시계열 데이터에서 이상 패턴을 탐지하는 프레임워크를 제안합니다. 제안하는 방법은 세 단계로 구성됩니다. 1) 도메인 지식을 기반으로 LLM을 사용하여 훈련 데이터를 레이블링하고, 2) LLM 기반 최적화를 통해 기호 규칙을 자동으로 생성하고 반복적으로 개선하며, 3) LLM을 활용하여 비즈니스 관련 이상 범주를 규칙에 추가하여 해석 가능성을 향상시킵니다. 실험 결과는 제안하는 방법이 기존의 비지도 학습 방법보다 탐지 정확도와 해석 가능성 모두에서 우수한 성능을 보임을 보여줍니다. 또한, 시계열 이상 탐지에 LLM을 직접 사용하는 것보다 제안하는 방법은 일관되고 결정론적인 결과를 제공하며, 낮은 계산 지연 시간과 비용으로 운영 환경에 적합합니다. 따라서, 제안하는 프레임워크는 LLM이 확장 가능한 자동화와 전문가 중심의 의사 결정 간의 격차를 해소하는 데 어떻게 기여할 수 있는지 보여줍니다.
Time series anomaly detection is critical for supply chain management to take proactive operations, but faces challenges: classical unsupervised anomaly detection based on exploiting data patterns often yields results misaligned with business requirements and domain knowledge, while manual expert analysis cannot scale to millions of products in the supply chain. We propose a framework that leverages large language models (LLMs) to systematically encode human expertise into interpretable, logic-based rules for detecting anomaly patterns in supply chain time series data. Our approach operates in three stages: 1) LLM-based labeling of training data instructed by domain knowledge, 2) automated generation and iterative improvements of symbolic rules through LLM-driven optimization, and 3) rule augmentation with business-relevant anomaly categories supported by LLMs to enhance interpretability. The experiment results showcase that our approach outperforms the unsupervised learning methods in both detection accuracy and interpretability. Furthermore, compared to direct LLM deployment for time series anomaly detection, our approach provides consistent, deterministic results with low computational latency and cost, making it ideal for production deployment. The proposed framework thus demonstrates how LLMs can bridge the gap between scalable automation and expert-driven decision-making in operational settings.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.