2602.20676v1 Feb 24, 2026 cs.IR

PRECTR-V2: 사용자 선호도 마이닝, 노출 편향 수정, LLM 기반 인코더 최적화를 통한 통합 관련성-CTR 프레임워크

PRECTR-V2:Unified Relevance-CTR Framework with Cross-User Preference Mining, Exposure Bias Correction, and LLM-Distilled Encoder Optimization

Ailong He
Ailong He
Citations: 7
h-index: 1
Shuzhi Cao
Shuzhi Cao
Citations: 6
h-index: 1
Shuguang Han
Shuguang Han
Citations: 27
h-index: 4
Jufeng Chen
Jufeng Chen
Citations: 27
h-index: 4
Rongyan Chen
Rongyan Chen
Citations: 0
h-index: 0

검색 시스템에서 검색 관련성 매칭과 클릭률(CTR) 예측이라는 두 가지 핵심 목표를 효과적으로 조율하는 것은 사용자의 관심사를 파악하고 플랫폼 수익을 향상시키는 데 매우 중요합니다. 이전 연구인 PRECTR에서는 이러한 두 가지 하위 작업을 통합하는 통합 프레임워크를 제안하여 불일치를 제거하고 상호 이점을 제공했습니다. 그러나 이전 연구는 여전히 세 가지 주요 과제에 직면해 있습니다. 첫째, 활동이 적거나 새로운 사용자는 제한된 검색 행동 데이터를 가지고 있어 효과적인 개인화된 관련성 선호도 모델링을 달성하기 어렵습니다. 둘째, 순위 모델 훈련 데이터는 주로 높은 관련성 노출 데이터에서 얻어지므로, 거칠게 순위를 매기는 전체 후보 공간과의 분포 불일치가 발생하여 일반화 편향이 발생합니다. 셋째, 지연 시간 제약으로 인해 원래 모델은 고정된 BERT 인코더를 사용하는 Emb+MLP 아키텍처를 사용하므로, 공동 최적화가 불가능하고 표현 학습과 CTR 미세 조정 간에 불일치가 발생합니다. 이러한 문제를 해결하기 위해, 우리는 방법을 더욱 개선하고 PRECTR-V2를 제안합니다. 구체적으로, 특정 쿼리에 대한 글로벌 관련성 선호도를 마이닝하여 저활동 사용자의 희소 행동 문제를 완화함으로써, 콜드 스타트 시나리오에서 효과적인 개인화된 관련성 모델링을 가능하게 합니다. 또한, 임베딩 노이즈 주입 및 관련성 레이블 재구성을 통해 하드 네거티브 샘플을 구성하고, 쌍별 손실을 통해 긍정 샘플에 대한 상대적 순위를 최적화하여 노출 편향을 수정합니다. 마지막으로, 텍스트 관련성 분류 작업에서 LLM 및 SFT를 사용하여 지식을 증류한 경량 트랜스포머 기반 인코더를 사전 훈련합니다. 이 인코더는 고정된 BERT 모듈을 대체하여 CTR 미세 조정에 더 잘 적응할 수 있도록 하고, 기존의 Emb+MLP 패러다임을 뛰어넘습니다.

Original Abstract

In search systems, effectively coordinating the two core objectives of search relevance matching and click-through rate (CTR) prediction is crucial for discovering users' interests and enhancing platform revenue. In our prior work PRECTR, we proposed a unified framework to integrate these two subtasks,thereby eliminating their inconsistency and leading to mutual benefit.However, our previous work still faces three main challenges. First, low-active users and new users have limited search behavioral data, making it difficult to achieve effective personalized relevance preference modeling. Second, training data for ranking models predominantly come from high-relevance exposures, creating a distribution mismatch with the broader candidate space in coarse-ranking, leading to generalization bias. Third, due to the latency constraint, the original model employs an Emb+MLP architecture with a frozen BERT encoder, which prevents joint optimization and creates misalignment between representation learning and CTR fine-tuning. To solve these issues, we further reinforce our method and propose PRECTR-V2. Specifically, we mitigate the low-activity users' sparse behavior problem by mining global relevance preferences under the specific query, which facilitates effective personalized relevance modeling for cold-start scenarios. Subsequently, we construct hard negative samples through embedding noise injection and relevance label reconstruction, and optimize their relative ranking against positive samples via pairwise loss, thereby correcting exposure bias. Finally, we pretrain a lightweight transformer-based encoder via knowledge distillation from LLM and SFT on the text relevance classification task. This encoder replaces the frozen BERT module, enabling better adaptation to CTR fine-tuning and advancing beyond the traditional Emb+MLP paradigm.

0 Citations
0 Influential
2 Altmetric
10.0 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!