2602.05544v1 Feb 05, 2026 cs.AI

설명 가능한 추천을 위한 언어 모델 기반의 추론 유도 협업 필터링

Reasoning-guided Collaborative Filtering with Language Models for Explainable Recommendation

Kezhi Wang
Kezhi Wang
Citations: 89
h-index: 3
Fahad Anwaar
Fahad Anwaar
Citations: 3
h-index: 1
Adil Mehmood Khan
Adil Mehmood Khan
Citations: 3
h-index: 1
Muhammad Khalid
Muhammad Khalid
Citations: 4
h-index: 1
Usman Zia
Usman Zia
Citations: 99
h-index: 4

대규모 언어 모델(LLM)은 설명 가능한 추천 시스템에 대한 잠재력을 보여주지만 협업 신호(collaborative signals)를 간과하는 경향이 있으며, 기존의 주류 방법론들은 추천과 설명을 별개의 작업으로 취급하여 메모리 공간을 차지하는 문제가 있습니다. 본 논문에서는 설명 가능한 순차적 추천을 단일 단계로 제공하기 위해 언어 모델에 추론 유도 협업 필터링(CF) 지식을 도입한 하이브리드 프레임워크인 RGCF-XRec을 제안합니다. 이론적 근거와 실증적 연구 결과에 따르면, RGCF-XRec은 기존의 선도적인 CF 인식 LLM 기반 방법론들에 비해 세 가지 주요 이점을 제공합니다. (1) 잠재적 선호도와 해석 가능한 추론 경로를 발견하기 위해 맥락적 프롬프팅을 통해 CF 지식을 추론 유도 방식으로 증강합니다. (2) 연결성(coherence), 완전성(completeness), 관련성(relevance), 일관성(consistency)의 네 가지 차원에 기반한 효율적인 채점 메커니즘을 통해 노이즈가 섞인 CF 추론 흔적을 완화하고 고품질의 설명을 유지합니다. (3) 협업 및 의미 신호를 인코딩하여 설명 가능한 순차적 추천을 위해 LLM을 조건부화(condition)하는 구조화된 프롬프트를 가능하게 하는 통합 표현 학습 네트워크를 제공합니다. RGCF-XRec은 642,503건의 사용자-아이템 상호작용을 포함하는 Amazon의 Sports, Toys, Beauty 데이터셋 전반에서 일관된 성능 향상을 보여주었습니다. Sports 데이터셋에서 HR@10을 7.38%, Toys 데이터셋에서 4.59% 향상시켰으며, ROUGE-L 점수 또한 각각 8.02%와 3.49% 향상되었습니다. 또한 콜드 스타트와 웜 스타트 시나리오 간의 성능 격차를 줄여 콜드 스타트에서 14.5%, 웜 스타트에서 11.9%의 전체적인 성능 향상을 달성했으며, Beauty와 Toys 데이터셋의 제로샷 HR@5 성능을 각각 18.54%, 23.16% 향상시켜 효과적인 일반화 능력과 견고성을 입증했습니다. 게다가 RGCF-XRec은 경량화된 LLaMA 3.2-3B 백본을 사용하여 훈련 효율성을 달성함으로써 실제 애플리케이션을 위한 확장성을 보장합니다.

Original Abstract

Large Language Models (LLMs) exhibit potential for explainable recommendation systems but overlook collaborative signals, while prevailing methods treat recommendation and explanation as separate tasks, resulting in a memory footprint. We present RGCF-XRec, a hybrid framework that introduces reasoning-guided collaborative filtering (CF) knowledge into a language model to deliver explainable sequential recommendations in a single step. Theoretical grounding and empirical findings reveal that RGCF-XRec offers three key merits over leading CF-aware LLM-based methods: (1) reasoning-guided augmentation of CF knowledge through contextual prompting to discover latent preferences and interpretable reasoning paths; (2) an efficient scoring mechanism based on four dimensions: coherence, completeness, relevance, and consistency to mitigate noisy CF reasoning traces and retain high-quality explanations; (3) a unified representation learning network that encodes collaborative and semantic signals, enabling a structured prompt to condition the LLM for explainable sequential recommendation. RGCF-XRec demonstrates consistent improvements across Amazon datasets, Sports, Toys, and Beauty, comprising 642,503 user-item interactions. It improves HR@10 by 7.38\% in Sports and 4.59\% in Toys, along with ROUGE-L by 8.02\% and 3.49\%, respectively. It reduces the cold warm performance gap, achieving overall gains of 14.5\% in cold-start and 11.9\% in warm start scenarios, and enhances zero-shot HR@5 by 18.54\% in Beauty and 23.16\% in Toys, highlighting effective generalization and robustness. Moreover, RGCF-XRec achieves training efficiency with a lightweight LLaMA 3.2-3B backbone, ensuring scalability for real-world applications.

0 Citations
0 Influential
2 Altmetric
10.0 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!