프라이버시와 공익 간의 갈등 상황에서 대규모 언어 모델의 가치-행동 일관성 연구
Value-Action Alignment in Large Language Models under Privacy-Prosocial Conflict
대규모 언어 모델(LLM)은 개인 정보 공유와 관련된 의사 결정 작업을 시뮬레이션하는 데 점점 더 많이 사용되고 있으며, 이 과정에서 프라이버시 문제와 공익적 동기가 서로 반대 방향으로 작용할 수 있습니다. 기존의 평가 방법은 종종 프라이버시 관련 태도나 공유 의도를 개별적으로 측정하는데, 이는 모델이 표현하는 가치가 실제 인간의 행동과 같이 데이터 공유 행동을 예측하는지 여부를 판단하기 어렵게 만듭니다. 본 연구에서는 프라이버시 태도, 공익성, 데이터 공유 수용도에 대한 표준화된 설문 조사를 일련의 단계로 진행하고, 이전 세션의 정보를 활용하는 제한적인 환경에서 평가하는 문맥 기반 평가 프로토콜을 제시합니다. 상반되는 태도가 존재할 때 가치-행동 일관성을 평가하기 위해, 다집단 구조 방정식 모델링(MGSEM)을 사용하여 프라이버시 문제와 공익성이 데이터 공유에 미치는 영향을 분석합니다. 또한, 인간의 행동과 비교하여 방향성을 평가하는 지표인 '가치-행동 일관성 비율(VAAR)'을 제안합니다. 여러 LLM을 대상으로 분석한 결과, 모델별로 뚜렷한 프라이버시-공익성-데이터 공유 수용도(PSA-AoDS) 프로필이 나타나는 것을 확인했으며, 가치-행동 일관성 측면에서 상당한 다양성이 존재함을 확인했습니다.
Large language models (LLMs) are increasingly used to simulate decision-making tasks involving personal data sharing, where privacy concerns and prosocial motivations can push choices in opposite directions. Existing evaluations often measure privacy-related attitudes or sharing intentions in isolation, which makes it difficult to determine whether a model's expressed values jointly predict its downstream data-sharing actions as in real human behaviors. We introduce a context-based assessment protocol that sequentially administers standardized questionnaires for privacy attitudes, prosocialness, and acceptance of data sharing within a bounded, history-carrying session. To evaluate value-action alignments under competing attitudes, we use multi-group structural equation modeling (MGSEM) to identify relations from privacy concerns and prosocialness to data sharing. We propose Value-Action Alignment Rate (VAAR), a human-referenced directional agreement metric that aggregates path-level evidence for expected signs. Across multiple LLMs, we observe stable but model-specific Privacy-PSA-AoDS profiles, and substantial heterogeneity in value-action alignment.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.