콜드 스타트 시나리오에서 생성형 추천 시스템에 모델 편집 기법 적용
Bringing Model Editing to Generative Recommendation in Cold-Start Scenarios
생성형 추천(Generative Recommendation, GR)은 엔드투엔드 생성 방식에서 순차적 추천에 강력한 잠재력을 보여주었습니다. 그러나 기존의 GR 모델은 심각한 콜드 스타트 문제에 직면하며, 새로운 아이템에 대한 추천 정확도가 거의 0에 가까워지는 현상이 발생합니다. 현재의 해결책은 주로 콜드 스타트 아이템과의 상호작용을 통해 모델을 재학습하는 방식이지만, 이는 희소한 피드백, 높은 계산 비용, 그리고 지연된 업데이트로 인해 실용적인 유용성이 제한됩니다. 자연어 처리 분야에서 모델 편집 기법을 활용하여 대규모 언어 모델에 지식을 주입하는 방식에서 영감을 받아, 본 연구에서는 이를 생성형 추천 시스템에 적용하는 방법을 탐구합니다. 그러나 이는 두 가지 주요 과제를 안고 있습니다. 첫째, 자연어에서 흔히 나타나는 명시적인 주어-목적어 관계가 GR 모델에는 부족하여, 정교한 편집이 어렵습니다. 둘째, GR 모델은 안정적인 토큰 동시 발생 패턴을 보이지 않아, 여러 토큰으로 구성된 아이템 표현을 주입하기 어렵습니다. 이러한 과제를 해결하기 위해, 생성형 추천 시스템에 특화된 모델 편집 프레임워크인 GenRecEdit을 제안합니다. GenRecEdit은 전체 시퀀스 컨텍스트와 다음 토큰 생성 간의 관계를 명시적으로 모델링하고, 반복적인 토큰 수준의 편집을 통해 여러 토큰으로 구성된 아이템 표현을 주입하며, 추론 과정에서 여러 편집 간의 간섭을 줄이기 위한 일대일 트리거 메커니즘을 도입합니다. 다양한 데이터셋에 대한 광범위한 실험 결과, GenRecEdit은 콜드 스타트 아이템에 대한 추천 성능을 크게 향상시키면서도 모델의 원래 추천 품질을 유지하는 것으로 나타났습니다. 또한, 모델 재학습에 필요한 훈련 시간의 약 9.5% 만으로 이러한 성능 향상을 달성하여, 더욱 효율적이고 빈번한 모델 업데이트를 가능하게 합니다.
Generative recommendation (GR) has shown strong potential for sequential recommendation in an end-to-end generation paradigm. However, existing GR models suffer from severe cold-start collapse: their recommendation accuracy on cold-start items can drop to near zero. Current solutions typically rely on retraining with cold-start interactions, which is hindered by sparse feedback, high computational cost, and delayed updates, limiting practical utility in rapidly evolving recommendation catalogs. Inspired by model editing in NLP, which enables training-free knowledge injection into large language models, we explore how to bring this paradigm to generative recommendation. This, however, faces two key challenges: GR lacks the explicit subject-object binding common in natural language, making targeted edits difficult; and GR does not exhibit stable token co-occurrence patterns, making the injection of multi-token item representations unreliable. To address these challenges, we propose GenRecEdit, a model editing framework tailored for generative recommendation. GenRecEdit explicitly models the relationship between the full sequence context and next-token generation, adopts iterative token-level editing to inject multi-token item representations, and introduces a one-to-one trigger mechanism to reduce interference among multiple edits during inference. Extensive experiments on multiple datasets show that GenRecEdit substantially improves recommendation performance on cold-start items while preserving the model's original recommendation quality. Moreover, it achieves these gains using only about 9.5% of the training time required for retraining, enabling more efficient and frequent model updates.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.