2603.16553v1 Mar 17, 2026 cs.CL

EmoLLM: 평가 기반의 인지-정서적 공존 추론을 통한 대규모 언어 모델

EmoLLM: Appraisal-Grounded Cognitive-Emotional Co-Reasoning in Large Language Models

Yifei Zhang
Yifei Zhang
Emory University
Citations: 199
h-index: 7
Mingyang Li
Mingyang Li
Citations: 0
h-index: 0
Henry Gao
Henry Gao
Citations: 0
h-index: 0
Liang Zhao
Liang Zhao
Citations: 137
h-index: 5

대규모 언어 모델(LLM)은 뛰어난 인지 능력을 보여주지만, 실제 상호 작용에서는 사실적으로 신뢰할 수 있고 감정적으로 적절한 응답을 생성하기 위해 정서적 지능(EQ) 또한 중요합니다. 정서적 지원, 기술 지원, 상담과 같은 상황에서 효과적인 대화는 사용자의 요구, 목표, 대처 능력에 대한 상황 평가에 달려 있습니다. 본 연구는 평가 이론에 영감을 받아, 대화에서 인지 능력과 정서적 지능을 융합하는 프레임워크인 EmoLLM을 제안합니다. EmoLLM은 명시적인 평가 추론 그래프(ARG)를 사용하여, 응답을 생성하기 전에 문맥 정보, 추론된 사용자 요구, 평가 차원, 감정 상태 및 응답 전략에 대한 중간 추론 과정을 구조화합니다. EmoLLM은 강화 학습을 통해 다중 턴 역할극 환경에서 학습되며, 역-관점 추론을 통해 응답의 예측되는 사용자 측면 결과에 기반한 보상 신호를 제공합니다. 다양한 대화 환경에서 EmoLLM은 강력한 기준 모델보다 감정 상태 결과 및 응답 품질을 향상시키면서도 높은 수준의 사실적 신뢰성을 유지합니다.

Original Abstract

Large language models (LLMs) demonstrate strong cognitive intelligence (IQ), yet many real-world interactions also require emotional intelligence (EQ) to produce responses that are both factually reliable and emotionally appropriate. In settings such as emotional support, technical assistance, and consultation, effective dialogue depends on how situations are appraised with respect to the user's needs, goals, and coping capacity. Inspired by appraisal theory, we propose EmoLLM, an appraisal-grounded framework for IQ/EQ co-reasoning in dialogue. EmoLLM uses an explicit Appraisal Reasoning Graph (ARG) to structure intermediate reasoning over contextual facts, inferred user needs, appraisal dimensions, emotional states, and response strategies before generating a reply. We train EmoLLM in a multi-turn role-play environment with reinforcement learning, where reverse-perspective reasoning provides reward signals based on predicted user-side consequences of responses. Across diverse dialogue settings, EmoLLM improves emotional state outcomes and response quality over strong baselines while preserving strong factual reliability.

0 Citations
0 Influential
3.5 Altmetric
17.5 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!