다중 에이전트 지시 정제 기반 정신 건강 분야의 효율적이고 강력한 언어적 감정 진단 연구
Towards Efficient and Robust Linguistic Emotion Diagnosis for Mental Health via Multi-Agent Instruction Refinement
우울증, 불안, 외상 관련 상태 등 감정 표현은 임상 기록, 상담 대화, 온라인 정신 건강 커뮤니티 등 다양한 곳에서 나타나며, 이러한 감정을 정확하게 인식하는 것은 임상적 분류, 위험 평가, 그리고 적절한 개입에 필수적입니다. 대규모 언어 모델(LLM)은 감정 분석 작업에서 뛰어난 일반화 능력을 보여주었지만, 고위험, 맥락 의존적인 의료 환경에서의 진단 신뢰성은 프롬프트 설계에 매우 민감하게 반응합니다. 또한, 기존 방법은 다음과 같은 두 가지 주요 문제에 직면합니다. 첫째, 여러 가지 복잡하게 얽힌 감정 상태가 예측을 어렵게 만드는 감정 동반성 문제입니다. 둘째, 임상적으로 중요한 단서를 효율적으로 탐색하지 못하는 문제입니다. 이러한 문제들을 해결하기 위해, 우리는 진단 효율성과 안정성을 향상시키기 위해 더 넓고 세분화된 프롬프트 공간을 체계적으로 탐색하는 프레임워크인 APOLO(Automated Prompt Optimization for Linguistic Emotion Diagnosis)를 제안합니다. APOLO는 지시 정제를 부분 관측 마르코프 의사 결정 문제로 정의하고, 설계자, 교사, 비평가, 학생, 목표라는 다중 에이전트 협업 메커니즘을 채택합니다. 이 폐쇄 루프 프레임워크 내에서, 설계자는 최적화 경로를 정의하고, 교사-비평가-학생 에이전트는 추론의 안정성과 효과성을 향상시키기 위해 프롬프트를 반복적으로 개선하며, 목표 에이전트는 성능 평가를 기반으로 최적화 과정을 계속할지 여부를 결정합니다. 실험 결과, APOLO는 도메인별 및 계층화된 벤치마크에서 진단 정확도와 안정성을 지속적으로 향상시키는 것으로 나타났으며, 이는 정신 건강 관리를 위한 신뢰할 수 있는 LLM 응용 분야의 확장 가능하고 일반화 가능한 패러다임을 보여줍니다.
Linguistic expressions of emotions such as depression, anxiety, and trauma-related states are pervasive in clinical notes, counseling dialogues, and online mental health communities, and accurate recognition of these emotions is essential for clinical triage, risk assessment, and timely intervention. Although large language models (LLMs) have demonstrated strong generalization ability in emotion analysis tasks, their diagnostic reliability in high-stakes, context-intensive medical settings remains highly sensitive to prompt design. Moreover, existing methods face two key challenges: emotional comorbidity, in which multiple intertwined emotional states complicate prediction, and inefficient exploration of clinically relevant cues. To address these challenges, we propose APOLO (Automated Prompt Optimization for Linguistic Emotion Diagnosis), a framework that systematically explores a broader and finer-grained prompt space to improve diagnostic efficiency and robustness. APOLO formulates instruction refinement as a Partially Observable Markov Decision Process and adopts a multi-agent collaboration mechanism involving Planner, Teacher, Critic, Student, and Target roles. Within this closed-loop framework, the Planner defines an optimization trajectory, while the Teacher-Critic-Student agents iteratively refine prompts to enhance reasoning stability and effectiveness, and the Target agent determines whether to continue optimization based on performance evaluation. Experimental results show that APOLO consistently improves diagnostic accuracy and robustness across domain-specific and stratified benchmarks, demonstrating a scalable and generalizable paradigm for trustworthy LLM applications in mental healthcare.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.