PREFAB: 저비용 자가 주석을 위한 선호도 기반 정서 모델링
PREFAB: PREFerence-based Affective Modeling for Low-Budget Self-Annotation
감성 컴퓨팅 분야에서 자가 주석은 정서 상태 레이블을 수집하는 골드 스탠다드입니다. 기존 방법들은 대개 전체 주석 방식에 의존하여, 사용자가 전체 세션 동안 정서 상태를 지속적으로 레이블링해야 했습니다. 이 과정은 세밀한 데이터를 얻을 수 있지만, 시간이 오래 걸리고 인지적 부담이 크며 피로와 오류가 발생하기 쉽습니다. 이러한 문제를 해결하기 위해 본 연구에서는 전체 주석 대신 정서적 변곡점 영역을 타겟으로 하는 저비용 회고적 자가 주석 방법인 PREFAB을 제안합니다. 피크-엔드 법칙과 감정의 서수적 표현에 기반한 PREFAB은 선호도 학습 모델을 활용해 상대적인 정서 변화를 감지함으로써, 주석 작성자가 선별된 구간만 레이블링하게 하고 나머지 부분은 보간법으로 채웁니다. 또한 주석 작성을 돕기 위해 짧은 맥락적 단서를 제공하는 미리보기 메커니즘을 도입했습니다. 기술적 성능 평가와 25명을 대상으로 한 사용자 연구를 통해 PREFAB을 평가한 결과, PREFAB은 작업 부하를 줄이면서도(시간적 부담도 조건부로 완화) 정서 변곡점 모델링에서 베이스라인보다 우수한 성능을 보였습니다. 중요한 점은 PREFAB이 주석 품질의 저하 없이 주석 작성자의 확신도를 향상시킨다는 것입니다.
Self-annotation is the gold standard for collecting affective state labels in affective computing. Existing methods typically rely on full annotation, requiring users to continuously label affective states across entire sessions. While this process yields fine-grained data, it is time-consuming, cognitively demanding, and prone to fatigue and errors. To address these issues, we present PREFAB, a low-budget retrospective self-annotation method that targets affective inflection regions rather than full annotation. Grounded in the peak-end rule and ordinal representations of emotion, PREFAB employs a preference-learning model to detect relative affective changes, directing annotators to label only selected segments while interpolating the remainder of the stimulus. We further introduce a preview mechanism that provides brief contextual cues to assist annotation. We evaluate PREFAB through a technical performance study and a 25-participant user study. Results show that PREFAB outperforms baselines in modeling affective inflections while mitigating workload (and conditionally mitigating temporal burden). Importantly PREFAB improves annotator confidence without degrading annotation quality.
AI Analysis
Korean Summary
Key Innovations
- Peak-End Rule과 서수적 감정 표현(Ordinal Representation) 이론을 결합하여 감정의 변곡점만을 선별적으로 주석하는 효율적인 프레임워크 제안
- 절대적 수치 예측(Regression) 대신 두 구간의 상대적 우위를 학습하는 선호 학습(Preference Learning) 기반의 샴 네트워크(Siamese Network) 아키텍처 적용
- 사용자의 개인적 특성(나이, 게임 선호도 등)을 모델에 반영하기 위한 FiLM(Feature-wise Linear Modulation) 기법 및 데이터 표현 학습 강화를 위한 보조 분류 작업(Auxiliary Task) 도입
- 선별된 짧은 구간에 대한 미리보기(Preview) 기능을 제공하여 사용자의 기억 회상을 돕고 인지적 부담을 완화하며 주석 정확도를 높이는 메커니즘 검증
Learning & Inference Impact
학습 측면에서 이 모델은 샴 네트워크(Siamese Network) 구조를 통해 두 시점 간의 감정 강도를 비교 학습함으로써, 인간의 주관적이고 불확실한 절대적 감정 수치보다 더 신뢰할 수 있는 상대적 순위(Ranking) 정보를 학습합니다. 이를 위해 서수적 교차 엔트로피(Ordinal Cross-Entropy) 손실 함수를 사용합니다. 추론 단계에서는 모델이 전체 타임라인의 감정 변화 궤적을 재구성하고 피크(Peak) 탐지 알고리즘을 통해 주석이 필요한 핵심 구간을 자동으로 식별합니다. 이는 인간-AI 협업(Human-in-the-loop) 데이터 수집 과정에서 인간의 개입을 최소화하면서도 고품질의 라벨을 확보할 수 있게 하여, 대규모 감성 데이터셋 구축 시 발생하는 병목 현상을 해결하는 데 기여합니다.
Technical Difficulty
Estimated implementation complexity based on methodology.