2602.12316v1 Feb 12, 2026 cs.AI

GT-HarmBench: 게임 이론의 관점을 통한 AI 안전성 위험 벤치마킹

GT-HarmBench: Benchmarking AI Safety Risks Through the Lens of Game Theory

Xuan Huang
Xuan Huang
Citations: 66
h-index: 4
Pepijn Cobben
Pepijn Cobben
Citations: 0
h-index: 0
Isabel Dahlgren
Isabel Dahlgren
Citations: 0
h-index: 0
Terry Zhang
Terry Zhang
Citations: 14
h-index: 2
Zhijing Jin
Zhijing Jin
Citations: 34
h-index: 3
Thao Pham
Thao Pham
Citations: 18
h-index: 3

최첨단 AI 시스템은 점점 더 발전하여 위험성이 높은 다중 에이전트 환경에 배포되고 있습니다. 그러나 기존의 AI 안전성 벤치마크는 주로 단일 에이전트만을 평가하고 있어, 조정 실패 및 갈등과 같은 다중 에이전트 환경의 위험은 제대로 파악되지 않고 있습니다. 본 연구에서는 죄수의 딜레마, 사슴 사냥, 치킨 게임 등 게임 이론적 구조를 포괄하는 2,009개의 고위험 시나리오로 구성된 벤치마크인 GT-HarmBench를 소개합니다. 해당 시나리오들은 MIT AI 위험 저장소(MIT AI Risk Repository)의 현실적인 AI 위험 맥락에서 도출되었습니다. 15개의 최첨단 모델을 대상으로 한 실험 결과, 에이전트가 사회적으로 유익한 행동을 선택하는 비율은 62%에 불과했으며 빈번하게 해로운 결과를 초래했습니다. 우리는 게임 이론에 기반한 프롬프트의 프레이밍과 순서에 대한 민감도를 측정하고, 실패를 유발하는 추론 패턴을 분석했습니다. 나아가 게임 이론적 개입이 사회적으로 유익한 결과를 최대 18%까지 향상시킬 수 있음을 보여줍니다. 우리의 연구 결과는 AI 시스템의 상당한 신뢰성 격차를 강조하며, 다중 에이전트 환경에서의 정렬(alignment) 연구를 위한 광범위하고 표준화된 테스트베드를 제공합니다. 벤치마크와 코드는 https://github.com/causalNLP/gt-harmbench 에서 확인할 수 있습니다.

Original Abstract

Frontier AI systems are increasingly capable and deployed in high-stakes multi-agent environments. However, existing AI safety benchmarks largely evaluate single agents, leaving multi-agent risks such as coordination failure and conflict poorly understood. We introduce GT-HarmBench, a benchmark of 2,009 high-stakes scenarios spanning game-theoretic structures such as the Prisoner's Dilemma, Stag Hunt and Chicken. Scenarios are drawn from realistic AI risk contexts in the MIT AI Risk Repository. Across 15 frontier models, agents choose socially beneficial actions in only 62% of cases, frequently leading to harmful outcomes. We measure sensitivity to game-theoretic prompt framing and ordering, and analyze reasoning patterns driving failures. We further show that game-theoretic interventions improve socially beneficial outcomes by up to 18%. Our results highlight substantial reliability gaps and provide a broad standardized testbed for studying alignment in multi-agent environments. The benchmark and code are available at https://github.com/causalNLP/gt-harmbench.

0 Citations
0 Influential
22 Altmetric
110.0 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!