공허함으로부터 배우기: 콘텐츠에 독립적인 확률 보정으로 목록 기반 재순위화 모델의 편향 제거
Learning from Emptiness: De-biasing Listwise Rerankers with Content-Agnostic Probability Calibration
생성형 목록 기반 재순위화는 전체 맥락을 활용하여 우수한 검색 성능을 제공하지만, 내재적인 위치 편향 문제를 안고 있습니다. 이 편향은 모델이 입력 순서에 따라 구조적으로 민감하게 반응하는 현상으로, 관련성과는 무관합니다. 기존의 해결 방법은 추론 시간의 집계를 통해 성능을 개선할 수 있지만, 막대한 지연 시간을 초래합니다. 반면, 학습 기반 방법은 종종 모델에 내재된 선입견을 완전히 제거하지 못하며, 특히 경량 모델에서 이러한 문제가 두드러집니다. 이러한 딜레마를 해결하기 위해, 우리는 CapCal (Content-Agnostic Probability Calibration)이라는 학습이 필요 없는 프레임워크를 제안합니다. CapCal은 위치 편향을 재순위 결정과 분리하여, 콘텐츠와 무관한 placeholder를 사용하여 편향 분포를 추정하고, 엔트로피에 적응하는 대비 학습 메커니즘을 통해 출력 로짓을 수정합니다. 10개의 벤치마크를 통해 CapCal이 학습이 필요 없는 방법 중 가장 뛰어난 성능을 보이며, 단일 패스 효율성을 유지한다는 것을 확인했습니다. 특히, CapCal은 0.6B와 같은 경량 모델의 잠재력을 최대한 활용하여, 절대적인 NDCG 점수를 10점 이상 향상시키고, 순열 기반 집계 및 데이터 증강 기반의 기존 방법들을 능가하는 성능을 보여줍니다.
Generative listwise reranking leverages global context for superior retrieval but is plagued by intrinsic position bias, where models exhibit structural sensitivity to input order independent of relevance. Existing mitigations present a dilemma: inference-time aggregation incurs prohibitive latency, while training-based methods often fail to eradicate ingrained priors, particularly in compact models. To resolve this dilemma, we propose CapCal (Content-Agnostic Probability Calibration), a training-free framework that mechanically decouples positional bias from ranking decisions. By estimating the bias distribution via content-free placeholders, CapCal rectifies output logits through an entropy-adaptive contrastive mechanism. Evaluations across 10 benchmarks confirm that CapCal achieves superior performance among training-free methods while preserving single-pass efficiency. Notably, it unlocks the latent potential of lightweight models (e.g., 0.6B), delivering absolute NDCG gains exceeding 10 points and outperforming both permutation-based aggregation and data-augmentation baselines.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.