2603.11715v1 Mar 12, 2026 eess.AS

표면 근전도(EMG)를 이용한 발성 및 비발성 언어 산출 과정에서의 감정 해독

Affect Decoding in Phonated and Silent Speech Production from Surface EMG

Tiantian Feng
Tiantian Feng
Citations: 1,043
h-index: 18
Kleanthis Avramidis
Kleanthis Avramidis
University of Southern California
Citations: 138
h-index: 8
Jihwan Lee
Jihwan Lee
Citations: 68
h-index: 5
Shrikanth S. Narayanan
Shrikanth S. Narayanan
Citations: 215
h-index: 8
Simon Pistrosch
Simon Pistrosch
Citations: 11
h-index: 2
Monica Gonzalez-Machorro
Monica Gonzalez-Machorro
Citations: 5
h-index: 1
Björn W. Schuller
Björn W. Schuller
Citations: 591
h-index: 12

감정 표현은 언어적 의사소통의 중요한 부분이지만, 이러한 표현이 언어 생성 과정에 어떻게 연관되는지는 아직 명확하지 않습니다. 근전도(EMG)와 같은 언어 기관의 근육 활동 측정은 음향 분석과 함께 감정이 언어 생성에 어떻게 영향을 미치는지 밝혀낼 수 있습니다. 본 연구에서는 발성 및 비발성 언어 산출 과정 동안 얼굴 및 목 표면 근전도(sEMG)를 사용하여 감정을 해독하는 방법을 연구합니다. 이를 위해, 12명의 참가자가 수행한 3가지 과제에서 얻은 2,780개의 발화 데이터를 포함하는 데이터셋을 구축하고, 다양한 특징 및 모델 임베딩을 사용하여 피험자 내 및 피험자 간 감정 해독 성능을 평가했습니다. 연구 결과는 근전도 표현이 좌절감을 최대 0.845의 AUC 값으로 안정적으로 구별할 수 있으며, 다양한 발성 모드에서도 잘 일반화된다는 것을 보여줍니다. 또한, 추가 분석을 통해 감정 정보가 얼굴 근육 활동에 내재되어 있으며, 발성이 없는 경우에도 유지된다는 것을 확인했습니다. 이는 근전도 센서가 감정을 인식하는 비발성 언어 인터페이스 개발에 잠재력을 가지고 있음을 시사합니다.

Original Abstract

The expression of affect is integral to spoken communication, yet, its link to underlying articulatory execution remains unclear. Measures of articulatory muscle activity such as EMG could reveal how speech production is modulated by emotion alongside acoustic speech analyses. We investigate affect decoding from facial and neck surface electromyography (sEMG) during phonated and silent speech production. For this purpose, we introduce a dataset comprising 2,780 utterances from 12 participants across 3 tasks, on which we evaluate both intra- and inter-subject decoding using a range of features and model embeddings. Our results reveal that EMG representations reliably discriminate frustration with up to 0.845 AUC, and generalize well across articulation modes. Our ablation study further demonstrates that affective signatures are embedded in facial motor activity and persist in the absence of phonation, highlighting the potential of EMG sensing for affect-aware silent speech interfaces.

0 Citations
0 Influential
9 Altmetric
45.0 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!