경험이 인격을 형성한다: LLM 인격의 언어적 기원과 기능적 영향
Experiences Build Characters: The Linguistic Origins and Functional Impact of LLM Personality
인간의 문제 해결 능력은 다양한 스타일과 인격 특성에 의해 풍부해지지만, 대규모 언어 모델(LLM)의 개발은 일관된 성능 지표를 우선시하는 경향이 있어, 과장됨과 같은 특정 행동 경향을 선호하는 경우가 많습니다. 본 연구는 다양한 경험이 기계 인격을 어떻게 형성하고 문제 해결에 어떤 영향을 미치는지 조사하기 위해, 모델이 비지도 방식으로 특정 분야의 텍스트에 노출되도록 지속적인 사전 훈련을 수행하여 경험 축적을 시뮬레이션합니다. 머신 인벤토리(MPI)를 통해 Big Five 프레임워크를 적용하여, 이러한 모델 변형의 인격 특성을 정량화하고, 언어적 스타일 및 추론 행동과의 관계를 분석합니다. 연구 결과, 모델의 역량은 '표현적인 일반주의자'와 '억제된 전문가'에서 최고점을 보이며, '억제 우위' 현상이 나타나, 사회적 특성이 감소할수록 복잡한 추론 성능이 향상되는 것을 확인했습니다. 또한, 명령문의 빈도와 어휘 다양성과 같은 훈련 데이터의 언어적 특징과 모델 성능 간의 인과 관계를 규명하여, '인격 공학'을 위한 지침을 제시합니다.
Human problem-solving is enriched by a diversity of styles and personality traits, yet the development of Large Language Models (LLMs) has largely prioritized uniform performance benchmarks that favour specific behavioural tendencies such as assertiveness. To investigate how diverse experiences shape machine personality and influence problem-solving, this study employs continued pre-training to expose models to domain-specific texts in an unsupervised manner, simulating the accumulation of experience. By adapting the Big Five framework via the Machine Personality Inventory (MPI), we quantify the personality traits of these model variants and analyse their relationship to linguistic style and reasoning behaviour. The findings reveal that model competence is bimodal, peaking at "Expressive Generalists" and "Suppressed Specialists," while identifying a "Suppression Advantage" where reduced social traits enhance complex reasoning performance. This study further establishes a causal link between training data linguistics, such as imperative frequency, and lexical diversity, providing a roadmap for "Personality Engineering".
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.