2601.13904v2 Jan 20, 2026 cs.AI

PREFAB: 선호도 기반 감정 모델링을 위한 저비용 자가 주석 방법

PREFAB: PREFerence-based Affective Modeling for Low-Budget Self-Annotation

Youjin Choi
Youjin Choi
Citations: 99
h-index: 6
Yucheon Park
Yucheon Park
Citations: 2
h-index: 1
Dávid Melhárt
Dávid Melhárt
Citations: 339
h-index: 11
Georgios N. Yannakakis
Georgios N. Yannakakis
Citations: 13,249
h-index: 59
JaeYoung Moon
JaeYoung Moon
Citations: 38
h-index: 3
Kyung-Joong Kim
Kyung-Joong Kim
Citations: 11
h-index: 2

자가 주석은 감정 컴퓨팅 분야에서 감정 상태 레이블을 수집하는 가장 이상적인 방법입니다. 기존 방법은 일반적으로 전체 세션 동안 사용자가 지속적으로 감정 상태를 레이블링하도록 요구하는 완전한 주석에 의존합니다. 이 과정은 세밀한 데이터를 제공하지만, 시간이 많이 소요되고, 인지적 부담이 크며, 피로와 오류를 유발하기 쉽습니다. 이러한 문제점을 해결하기 위해, 우리는 전체 주석 대신 감정 변화 영역을 목표로 하는 저비용 회고적 자가 주석 방법인 PREFAB을 제안합니다. PREFAB은 피크-엔 규칙과 감정의 순서 기반 표현에 기반하며, 선호도 학습 모델을 사용하여 상대적인 감정 변화를 감지하고, 주석자가 선택된 세그먼트만 레이블링하도록 안내하면서 나머지 부분은 보간합니다. 또한, 주석을 돕기 위한 간략한 문맥 힌트를 제공하는 미리보기 기능을 도입했습니다. 우리는 기술적 성능 연구와 25명의 참가자를 대상으로 한 사용자 연구를 통해 PREFAB을 평가했습니다. 결과는 PREFAB이 기준 모델보다 감정 변화를 더 잘 모델링하는 동시에 작업량을 줄이고(조건부로 시간 부담을 줄이고), 주석자의 자신감을 향상시키면서 주석 품질을 저하시키지 않는다는 것을 보여줍니다.

Original Abstract

Self-annotation is the gold standard for collecting affective state labels in affective computing. Existing methods typically rely on full annotation, requiring users to continuously label affective states across entire sessions. While this process yields fine-grained data, it is time-consuming, cognitively demanding, and prone to fatigue and errors. To address these issues, we present PREFAB, a low-budget retrospective self-annotation method that targets affective inflection regions rather than full annotation. Grounded in the peak-end rule and ordinal representations of emotion, PREFAB employs a preference-learning model to detect relative affective changes, directing annotators to label only selected segments while interpolating the remainder of the stimulus. We further introduce a preview mechanism that provides brief contextual cues to assist annotation. We evaluate PREFAB through a technical performance study and a 25-participant user study. Results show that PREFAB outperforms baselines in modeling affective inflections while mitigating workload (and conditionally mitigating temporal burden). Importantly PREFAB improves annotator confidence without degrading annotation quality.

0 Citations
0 Influential
29.5 Altmetric
147.5 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!