2601.19082v1 Jan 27, 2026 cs.AI

더 많은 것이 걸려 있다: 협력 딜레마에서 보상과 언어가 LLM 에이전트 전략을 형성하는 방식

More at Stake: How Payoff and Language Shape LLM Agent Strategies in Cooperation Dilemmas

Trung-Kiet Huynh
Trung-Kiet Huynh
Citations: 5
h-index: 1
Thanh-Bang Cao
Thanh-Bang Cao
Citations: 5
h-index: 1
Phong-Hao Le
Phong-Hao Le
Citations: 5
h-index: 1
Hong-Dan Nguyen
Hong-Dan Nguyen
Citations: 5
h-index: 1
Minh-Luan Nguyen-Vo
Minh-Luan Nguyen-Vo
Citations: 5
h-index: 1
Hong-Phat Pham
Hong-Phat Pham
Citations: 5
h-index: 1
Pham Phu Hoa
Pham Phu Hoa
Citations: 1
h-index: 1
T. Than
T. Than
Citations: 5
h-index: 1
Chi-Nguyen Tran
Chi-Nguyen Tran
Citations: 5
h-index: 1
Huy Tran
Huy Tran
Citations: 5
h-index: 1
Gia-Thoai Tran-Le
Gia-Thoai Tran-Le
Citations: 5
h-index: 1
Alessio Buscemi
Alessio Buscemi
Citations: 114
h-index: 6
Le Hong Trang
Le Hong Trang
Citations: 13
h-index: 2
Duy-Minh Dao-Sy
Duy-Minh Dao-Sy
Citations: 5
h-index: 1
Phu-Quy Nguyen-Lam
Phu-Quy Nguyen-Lam
Citations: 5
h-index: 1
Han The Anh
Han The Anh
Citations: 25
h-index: 2

LLM이 상호작용 및 다중 에이전트 환경에서 자율 에이전트로 활동하는 경우가 늘어남에 따라, 이들의 전략적 행동을 이해하는 것은 안전, 조정, 그리고 AI 주도 사회 및 경제 시스템에 있어 매우 중요하다. 본 연구는 인센티브 강도에 대한 민감도를 분리하기 위해 보상 규모가 조정된 '죄수의 딜레마'를 사용하여, 반복적 사회적 딜레마에서 보상의 크기와 언어적 맥락이 LLM 전략을 어떻게 형성하는지 조사한다. 다양한 모델과 언어에 걸쳐 우리는 인센티브에 민감한 조건부 전략과 언어 간 상이성을 포함한 일관된 행동 패턴을 관찰했다. 이러한 역학을 해석하기 위해 전형적인 반복 게임 전략에 대해 지도 학습 분류기를 훈련시키고 이를 LLM의 의사결정에 적용하였으며, 그 결과 체계적이고 모델 및 언어 의존적인 행동 의도가 드러났다. 특히 언어적 프레이밍 효과는 때때로 모델 아키텍처의 효과와 맞먹거나 이를 능가하기도 했다. 우리의 연구 결과는 전략적 에이전트로서의 LLM을 감사하기 위한 통합된 프레임워크를 제공하며, AI 거버넌스 및 다중 에이전트 시스템 설계에 직접적인 시사점을 주는 협력 편향을 강조한다.

Original Abstract

As LLMs increasingly act as autonomous agents in interactive and multi-agent settings, understanding their strategic behavior is critical for safety, coordination, and AI-driven social and economic systems. We investigate how payoff magnitude and linguistic context shape LLM strategies in repeated social dilemmas, using a payoff-scaled Prisoner's Dilemma to isolate sensitivity to incentive strength. Across models and languages, we observe consistent behavioral patterns, including incentive-sensitive conditional strategies and cross-linguistic divergence. To interpret these dynamics, we train supervised classifiers on canonical repeated-game strategies and apply them to LLM decisions, revealing systematic, model- and language-dependent behavioral intentions, with linguistic framing sometimes matching or exceeding architectural effects. Our results provide a unified framework for auditing LLMs as strategic agents and highlight cooperation biases with direct implications for AI governance and multi-agent system design.

0 Citations
0 Influential
3 Altmetric
15.0 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!