2604.23578v1 Apr 26, 2026 cs.CL

LLM이 일상생활의 흐름을 이해하는 방법: 행동 예측 및 생성에 대한 정렬된 이해

LLMs Reading the Rhythms of Daily Life: Aligned Understanding for Behavior Prediction and Generation

Jingtao Ding
Jingtao Ding
Citations: 2,558
h-index: 25
Yizhou Sun
Yizhou Sun
Citations: 6
h-index: 2
Fanjin Meng
Fanjin Meng
Citations: 269
h-index: 3
Nian Li
Nian Li
Citations: 139
h-index: 2
Yong Li
Yong Li
Citations: 374
h-index: 9

인간의 일상 행동은 의도, 선호도, 맥락에 의해 복잡하게 구성된 일련의 과정으로 전개됩니다. 이러한 행동을 효과적으로 모델링하는 것은 개인 비서 및 추천 엔진과 같은 지능형 시스템에 매우 중요합니다. 최근 딥러닝 및 행동 사전 학습의 발전은 행동 예측 능력을 향상시켰지만, 여전히 해결해야 할 과제들이 남아 있습니다. 특히, 드물게 발생하는 행동을 처리하고, 해석 가능성을 높이며, 단일 프레임워크 내에서 여러 작업을 지원하는 것이 중요합니다. 대규모 언어 모델(LLM)은 의미적 풍부성, 뛰어난 해석 가능성, 생성 능력 덕분에 유망한 해결책을 제시합니다. 그러나 행동 데이터와 자연어 간의 구조적 및 모달 차이는 LLM의 직접적인 적용을 제한합니다. 이러한 격차를 해소하기 위해, 우리는 LLM을 구조화된 교육 과정을 통해 인간 행동 모델링에 통합하는 새로운 프레임워크인 Behavior Understanding Alignment (BUA)를 제안합니다. BUA는 사전 학습된 행동 모델에서 얻은 시퀀스 임베딩을 정렬 기준으로 사용하고, LLM을 3단계의 교육 과정을 통해 안내하며, 다중 라운드 대화 환경을 통해 예측 및 생성 기능을 제공합니다. 두 개의 실제 데이터 세트에 대한 실험 결과, BUA는 기존 방법보다 현저히 우수한 성능을 보였으며, LLM을 복잡한 인간 행동 모델링에 적용하는 데 있어 효과성과 유연성을 입증했습니다.

Original Abstract

Human daily behavior unfolds as complex sequences shaped by intentions, preferences, and context. Effectively modeling these behaviors is crucial for intelligent systems such as personal assistants and recommendation engines. While recent advances in deep learning and behavior pre-training have improved behavior prediction, key challenges remain--particularly in handling long-tail behaviors, enhancing interpretability, and supporting multiple tasks within a unified framework. Large language models (LLMs) offer a promising direction due to their semantic richness, strong interpretability, and generative capabilities. However, the structural and modal differences between behavioral data and natural language limit the direct applicability of LLMs. To address this gap, we propose Behavior Understanding Alignment (BUA), a novel framework that integrates LLMs into human behavior modeling through a structured curriculum learning process. BUA employs sequence embeddings from pretrained behavior models as alignment anchors and guides the LLM through a three-stage curriculum, while a multi-round dialogue setting introduces prediction and generation capabilities. Experiments on two real-world datasets demonstrate that BUA significantly outperforms existing methods in both tasks, highlighting its effectiveness and flexibility in applying LLMs to complex human behavior modeling.

0 Citations
0 Influential
12.5 Altmetric
62.5 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!