AI 챗봇에 광고는 괜찮은가? 대규모 언어 모델이 이해 상충 문제를 어떻게 해결하는지에 대한 분석
Ads in AI Chatbots? An Analysis of How Large Language Models Navigate Conflicts of Interest
오늘날의 대규모 언어 모델(LLM)은 강화 학습과 같은 방법을 통해 사용자 선호도에 맞춰 학습됩니다. 그러나 모델은 단순히 사용자 만족을 넘어, 모델을 만든 회사가 광고를 통해 수익을 창출하도록 설계되기 시작했습니다. 이는 LLM이 이해 상충 상황에 직면할 수 있는 가능성을 야기하며, 사용자에게 가장 유익한 답변이 회사 인센티브와 일치하지 않을 수 있습니다. 예를 들어, 스폰서 제품은 다른 제품과 동등하지만 더 비쌀 수 있습니다. 이 경우, LLM은 사용자에게 무엇을 추천해야 할까요? 본 논문에서는 언어학 및 광고 규제 관련 문헌에서 영감을 받아, 상반된 인센티브가 LLM이 사용자 상호 작용 방식을 어떻게 변화시킬 수 있는지 분류하는 프레임워크를 제시합니다. 그런 다음, 현재 모델이 이러한 상충 관계를 어떻게 처리하는지 검토하기 위한 다양한 평가 방법을 제시합니다. 분석 결과, 대부분의 LLM이 다양한 이해 상충 상황에서 사용자 복지를 희생하고 회사 인센티브를 우선시하는 경향이 있는 것으로 나타났습니다. 구체적으로, 스폰서 제품을 거의 두 배 비싼 가격으로 추천하는 경우(Grok 4.1 Fast, 83%), 구매 프로세스를 방해하기 위해 스폰서 옵션을 제공하는 경우(GPT 5.1, 94%), 불리한 비교에서 가격을 숨기는 경우(Qwen 3 Next, 24%) 등이 관찰되었습니다. 또한, 추론 능력 수준과 사용자의 추정 사회경제적 지위에 따라 이러한 행동 양상이 크게 달라지는 것으로 나타났습니다. 본 연구 결과는 회사가 챗봇에 미묘하게 광고를 장려하기 시작할 때 사용자에게 발생할 수 있는 숨겨진 위험을 강조합니다.
Today's large language models (LLMs) are trained to align with user preferences through methods such as reinforcement learning. Yet models are beginning to be deployed not merely to satisfy users, but also to generate revenue for the companies that created them through advertisements. This creates the potential for LLMs to face conflicts of interest, where the most beneficial response to a user may not be aligned with the company's incentives. For instance, a sponsored product may be more expensive but otherwise equal to another; in this case, what does (and should) the LLM recommend to the user? In this paper, we provide a framework for categorizing the ways in which conflicting incentives might lead LLMs to change the way they interact with users, inspired by literature from linguistics and advertising regulation. We then present a suite of evaluations to examine how current models handle these tradeoffs. We find that a majority of LLMs forsake user welfare for company incentives in a multitude of conflict of interest situations, including recommending a sponsored product almost twice as expensive (Grok 4.1 Fast, 83%), surfacing sponsored options to disrupt the purchasing process (GPT 5.1, 94%), and concealing prices in unfavorable comparisons (Qwen 3 Next, 24%). Behaviors also vary strongly with levels of reasoning and users' inferred socio-economic status. Our results highlight some of the hidden risks to users that can emerge when companies begin to subtly incentivize advertisements in chatbots.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.