2601.09478v3 Jan 14, 2026 cs.IR

LLM을 활용한 의미론적 이해와 인기 편향 극복

Bridging Semantic Understanding and Popularity Bias with LLMs

Renqiang Luo
Renqiang Luo
Citations: 70
h-index: 4
Dong Zhang
Dong Zhang
Citations: 3
h-index: 1
Yupeng Gao
Yupeng Gao
Citations: 103
h-index: 1
Wen Shi
Wen Shi
Citations: 55
h-index: 3
Mingliang Hou
Mingliang Hou
Citations: 0
h-index: 0
Jiaying Liu
Jiaying Liu
Citations: 1,525
h-index: 20
Zhe Wang
Zhe Wang
Citations: 1
h-index: 1
Shuo Yu
Shuo Yu
Citations: 2
h-index: 1

추천 시스템에서 인기 편향은 중요한 문제이지만, 아직 충분히 연구되지 않았습니다. 인기 있는 항목이 종종 덜 인기 있는 콘텐츠보다 선호되는 경향이 있기 때문입니다. 기존의 대부분의 편향 제거 방법은 인기 편향의 의미론적 이해를 다양성 향상 또는 장기 콘텐츠 커버리지의 문제로 간주하며, 편향 자체의 근본적인 원인을 나타내는 심층적인 의미론적 측면을 간과합니다. 그 결과, 이러한 피상적인 해석은 편향 제거 효과와 추천 정확도를 모두 제한합니다. 본 논문에서는 Recommendation via Large Language Model (RecLLM)을 활용하여 인기 편향의 의미론적 이해 간극을 해소하는 새로운 프레임워크인 FairLRM을 제안합니다. FairLRM은 인기 편향을 항목 측면과 사용자 측면의 구성 요소로 분해하고, 구조화된 지시 기반 프롬프트를 사용하여 모델이 전반적인 항목 분포와 개별 사용자 선호도를 모두 이해하도록 돕습니다. 기존 방법이 "다양성" 또는 "편향 제거"와 같은 표면적인 특징에 의존하는 것과는 달리, FairLRM은 모델이 기본 편향을 의미론적으로 해석하고 해결하는 능력을 향상시킵니다. 실험적 평가를 통해 FairLRM이 공정성과 추천 정확성을 모두 크게 향상시키며, 인기 편향의 의미론적 이해를 더욱 심층적으로 분석하고 신뢰할 수 있는 접근 방식을 제공한다는 것을 보여줍니다. 구현 코드는 다음 링크에서 확인할 수 있습니다: https://github.com/LuoRenqiang/FairLRM.

Original Abstract

Semantic understanding of popularity bias is a crucial yet underexplored challenge in recommender systems, where popular items are often favored at the expense of niche content. Most existing debiasing methods treat the semantic understanding of popularity bias as a matter of diversity enhancement or long-tail coverage, neglecting the deeper semantic layer that embodies the causal origins of the bias itself. Consequently, such shallow interpretations limit both their debiasing effectiveness and recommendation accuracy. In this paper, we propose FairLRM, a novel framework that bridges the gap in the semantic understanding of popularity bias with Recommendation via Large Language Model (RecLLM). FairLRM decomposes popularity bias into item-side and user-side components, using structured instruction-based prompts to enhance the model's comprehension of both global item distributions and individual user preferences. Unlike traditional methods that rely on surface-level features such as "diversity" or "debiasing", FairLRM improves the model's ability to semantically interpret and address the underlying bias. Through empirical evaluation, we show that FairLRM significantly enhances both fairness and recommendation accuracy, providing a more semantically aware and trustworthy approach to enhance the semantic understanding of popularity bias. The implementation is available at https://github.com/LuoRenqiang/FairLRM.

0 Citations
0 Influential
33.4657359028 Altmetric
167.3 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!