2602.09362v1 Feb 10, 2026 econ.GN

인공지능 행동경제학: LLM의 편향성과 개선 방안

Behavioral Economics of AI: LLM Biases and Corrections

Pietro Bini
Pietro Bini
Citations: 4
h-index: 1
L. Cong
L. Cong
Citations: 97
h-index: 7
Xin Huang
Xin Huang
Citations: 95
h-index: 4
Lawrence J. Jin
Lawrence J. Jin
Citations: 182
h-index: 4

생성형 인공지능 모델, 특히 대규모 언어 모델(LLM)이 경제 및 금융 의사 결정 과정에서 체계적인 행동 편향을 보이는가? 만약 그렇다면, 이러한 편향을 어떻게 완화할 수 있는가? 본 연구는 인지 심리학 및 실험 경제학 문헌을 바탕으로, 기존에 인간의 편향을 분석하기 위해 설계된 실험들을 다양한 버전과 규모의 대표적인 LLM 모델에 적용하여 수행한, 지금까지 가장 포괄적인 실험 연구이다. 실험 결과, LLM의 행동에서 체계적인 패턴이 확인되었다. 선호도 기반 과제에서 모델이 발전하거나 규모가 커짐에 따라 응답이 인간과 유사해지는 경향을 보이는 반면, 신념 기반 과제에서는 고도화된 대규모 모델이 자주 합리적인 응답을 생성하는 것으로 나타났다. LLM에게 합리적인 의사 결정을 유도하는 프롬프트는 편향을 줄이는 데 효과적이다.

Original Abstract

Do generative AI models, particularly large language models (LLMs), exhibit systematic behavioral biases in economic and financial decisions? If so, how can these biases be mitigated? Drawing on the cognitive psychology and experimental economics literatures, we conduct the most comprehensive set of experiments to date$-$originally designed to document human biases$-$on prominent LLM families across model versions and scales. We document systematic patterns in LLM behavior. In preference-based tasks, responses become more human-like as models become more advanced or larger, while in belief-based tasks, advanced large-scale models frequently generate rational responses. Prompting LLMs to make rational decisions reduces biases.

4 Citations
0 Influential
3.5 Altmetric
21.5 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!