Prism: 복합 의도 이해를 통한 LLM 사용자 인지 부하 저감
Prism: Towards Lowering User Cognitive Load in LLMs via Complex Intent Understanding
거대언어모델(LLM)은 소셜 플랫폼의 웹 네이티브 인터페이스로 급부상하고 있습니다. 소셜 웹에서 사용자는 종종 모호하고 가변적인 목표를 가지기 때문에, 단순한 단일 턴 실행보다는 '복합 의도 이해'가 효과적인 인간-LLM 협업의 핵심이 됩니다. 기존 접근법들은 순차적 또는 병렬적 질문을 통해 사용자 의도를 명확히 하려 했으나, 확인 질문 간의 논리적 의존성을 모델링한다는 핵심 과제를 해결하는 데에는 한계가 있었습니다. 본 논문에서는 인지 부하 이론(Cognitive Load Theory)에서 영감을 받아, 논리적으로 일관되고 효율적인 의도 명확화를 가능케 하는 새로운 복합 의도 이해 프레임워크인 Prism을 제안합니다. Prism은 네 가지 맞춤형 모듈로 구성됩니다. 첫째, 사용자 의도를 작고 구조화된 요소로 분해하고 논리적 의존성을 식별하는 '복합 의도 분해 모듈', 둘째, 이러한 의존성에 기반해 확인 질문을 구성하여 일관되고 매끄러운 상호작용을 보장하는 '논리적 명확화 생성 모듈', 셋째, 의도 인식 보상 함수로 명확화 과정의 품질을 평가하고 몬테카를로 샘플링을 활용해 사용자-LLM 상호작용을 시뮬레이션함으로써 대규모 고품질 학습 데이터를 생성하는 '의도 인식 보상 모듈', 마지막으로 데이터 기반 피드백과 최적화를 통해 LLM의 논리적 명확화 능력을 반복적으로 개선하는 '자기 진화형 의도 튜닝 모듈'입니다. Prism은 명확화 상호작용, 의도 실행, 인지 부하 벤치마크 전반에서 기존 방식보다 일관되게 우수한 성능을 보였습니다. 특히 최고 수준(SOTA)의 논리적 일관성을 달성하여 논리적 충돌을 11.5%로 줄였고, 사용자 만족도는 14.4% 향상시켰으며, 작업 완료 시간은 34.8% 단축했습니다. 모든 데이터와 코드는 공개되었습니다.
Large Language Models are rapidly emerging as web-native interfaces to social platforms. On the social web, users frequently have ambiguous and dynamic goals, making complex intent understanding-rather than single-turn execution-the cornerstone of effective human-LLM collaboration. Existing approaches attempt to clarify user intents through sequential or parallel questioning, yet they fall short of addressing the core challenge: modeling the logical dependencies among clarification questions. Inspired by the Cognitive Load Theory, we propose Prism, a novel framework for complex intent understanding that enables logically coherent and efficient intent clarification. Prism comprises four tailored modules: a complex intent decomposition module, which decomposes user intents into smaller, well-structured elements and identifies logical dependencies among them; a logical clarification generation module, which organizes clarification questions based on these dependencies to ensure coherent, low-friction interactions; an intent-aware reward module, which evaluates the quality of clarification trajectories via an intent-aware reward function and leverages Monte Carlo Sample to simulate user-LLM interactions for large-scale,high-quality training data generation; and a self-evolved intent tuning module, which iteratively refines the LLM's logical clarification capability through data-driven feedback and optimization. Prism consistently outperforms existing approaches across clarification interactions, intent execution, and cognitive load benchmarks. It achieves stateof-the-art logical consistency, reduces logical conflicts to 11.5%, increases user satisfaction by 14.4%, and decreases task completion time by 34.8%. All data and code are released.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.