대규모 언어 모델이 창의적 사고 과정에서 인간 뇌와 일치하는 현상
Large Language Models Align with the Human Brain during Creative Thinking
창의적 사고는 인간 인지의 기본 측면이며, 새롭고 다양한 아이디어를 생성하는 능력인 발산적 사고는 그 핵심적인 작동 원리로 여겨집니다. 최근 대규모 언어 모델(LLM)은 발산적 사고 테스트에서 뛰어난 성능을 보여주었으며, 이전 연구에서는 작업 성능이 높은 모델일수록 인간 뇌 활동과 더 잘 일치하는 경향이 있다는 사실이 밝혀졌습니다. 그러나 기존의 뇌-LLM 정렬 연구는 주로 수동적이고 창의적인 활동이 아닌 작업에 초점을 맞추었습니다. 본 연구에서는 170명의 참가자가 수행한 대체 용도 과제(Alternate Uses Task, AUT)의 fMRI 데이터를 사용하여 창의적 사고 과정에서의 뇌 정렬을 탐구합니다. 다양한 크기(270M-72B)의 LLM에서 추출된 표현을 분석하고, 대표성 유사성 분석(Representational Similarity Analysis, RSA)을 통해 창의성과 관련된 휴식 상태 네트워크 및 전두엽-두정엽 네트워크의 뇌 반응과의 정렬 정도를 측정합니다. 연구 결과, 뇌-LLM 정렬은 모델 크기(휴식 상태 네트워크의 경우) 및 아이디어의 독창성(전체 네트워크)에 따라 달라지며, 특히 창의적인 과정의 초기 단계에서 이러한 효과가 가장 강하게 나타납니다. 또한, 사후 훈련 목표가 기능적으로 선택적인 방식으로 정렬에 영향을 미치는 것을 확인했습니다. 창의성을 최적화한 exttt{Llama-3.1-8B-Instruct} 모델은 높은 창의성 관련 뇌 반응과의 정렬을 유지하면서 낮은 창의성 관련 반응과의 정렬을 줄이는 반면, 인간 행동을 기반으로 미세 조정된 모델은 모든 반응과의 정렬을 높입니다. 반면, 추론 능력을 향상시킨 모델은 정반대의 패턴을 보이며, 이는 연쇄 추론(chain-of-thought) 훈련이 뇌의 창의적 신경 구조에서 벗어나 분석적 처리 방향으로 표현을 유도한다는 것을 시사합니다. 이러한 결과는 사후 훈련 목표가 LLM의 표현을 인간의 창의적 사고 신경 구조와 관련하여 선택적으로 재구성한다는 것을 보여줍니다.
Creative thinking is a fundamental aspect of human cognition, and divergent thinking-the capacity to generate novel and varied ideas-is widely regarded as its core generative engine. Large language models (LLMs) have recently demonstrated impressive performance on divergent thinking tests and prior work has shown that models with higher task performance tend to be more aligned to human brain activity. However, existing brain-LLM alignment studies have focused on passive, non-creative tasks. Here, we explore brain alignment during creative thinking using fMRI data from 170 participants performing the Alternate Uses Task (AUT). We extract representations from LLMs varying in size (270M-72B) and measure alignment to brain responses via Representational Similarity Analysis (RSA), targeting the creativity-related default mode and frontoparietal networks. We find that brain-LLM alignment scales with model size (default mode network only) and idea originality (both networks), with effects strongest early in the creative process. We further show that post-training objectives shape alignment in functionally selective ways: a creativity-optimized \texttt{Llama-3.1-8B-Instruct} preserves alignment with high-creativity neural responses while reducing alignment with low-creativity ones; a human behavior fine-tuned model elevates alignment with both; and a reasoning-trained variant shows the opposite pattern, suggesting chain-of-thought training steers representations away from creative neural geometry toward analytical processing. These results demonstrate that post-training objectives selectively reshape LLM representations relative to the neural geometry of human creative thought.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.