카테고리 인식 MoE 및 LLM 기반 데이터 증강을 활용한 온라인 채용 개선
Enhancing Online Recruitment with Category-Aware MoE and LLM-based Data Augmentation
개인-직무 적합성(Person-Job Fit, PJF)은 온라인 채용의 중요한 요소입니다. 기존 방식은 낮은 품질의 직무 설명과 유사한 지원자-직무 쌍을 처리하는 데 어려움을 겪으며, 이는 모델 성능 저하로 이어집니다. 이러한 문제점을 해결하기 위해, 본 논문에서는 대규모 언어 모델(LLM)을 기반으로 하는 새로운 방법을 제안합니다. 이 방법은 두 가지 혁신적인 기술을 포함합니다. (1) 체인 오브 씽킹(Chain-of-Thought, COT) 프롬프트를 활용하여 낮은 품질의 직무 설명을 개선하고 재작성하는 LLM 기반 데이터 증강 기술, (2) 유사한 지원자-직무 쌍을 식별하는 데 도움을 주는 카테고리 인식 혼합 전문가(Mixture of Experts, MoE) 모델입니다. 이 MoE 모듈은 카테고리 임베딩을 사용하여 전문가에 대한 가중치를 동적으로 할당하고, 유사한 지원자-직무 쌍에 대한 더 구별 가능한 패턴을 학습합니다. 우리는 오프라인 평가와 온라인 A/B 테스트를 통해 제안하는 방법의 성능을 검증했습니다. 그 결과, 제안하는 방법은 기존 방법보다 AUC에서 2.40%, GAUC에서 7.46% 향상되었으며, 온라인 테스트에서 클릭률 전환율(Click-Through Conversion Rate, CTCVR)을 19.4% 향상시켜, 외부 헤드헌팅 비용을 수백만 위안 절감하는 효과를 보였습니다.
Person-Job Fit (PJF) is a critical component for online recruitment. Existing approaches face several challenges, particularly in handling low-quality job descriptions and similar candidate-job pairs, which impair model performance. To address these challenges, this paper proposes a large language model (LLM) based method with two novel techniques: (1) LLM-based data augmentation, which polishes and rewrites low-quality job descriptions by leveraging chain-of-thought (COT) prompts, and (2) category-aware Mixture of Experts (MoE) that assists in identifying similar candidate-job pairs. This MoE module incorporates category embeddings to dynamically assign weights to the experts and learns more distinguishable patterns for similar candidate-job pairs. We perform offline evaluations and online A/B tests on our recruitment platform. Our method relatively surpasses existing methods by 2.40% in AUC and 7.46% in GAUC, and boosts click-through conversion rate (CTCVR) by 19.4% in online tests, saving millions of CNY in external headhunting expenses.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.