LLM의 뇌와 유사한 시너지 코어가 행동과 학습을 주도한다
A Brain-like Synergistic Core in LLMs Drives Behaviour and Learning
생물학적 시스템과 인공 시스템에서 지능이 독립적으로 진화한 현상은 지능의 근본적인 계산 원리를 규명할 수 있는 독특한 기회를 제공한다. 본 연구에서 우리는 거대언어모델(LLM)이 인간의 뇌와 놀랍도록 유사한 시너지 코어—정보 통합이 개별 부분의 합을 초과하는 구성 요소—를 자발적으로 형성한다는 것을 보여준다. 다양한 LLM 모델군과 아키텍처에 정보 분해 원리를 적용하여 분석한 결과, 초기 및 후기 레이어는 중복성에 의존하는 반면 중간 레이어 영역은 시너지적 정보 처리를 보인다는 사실을 발견했으며, 이는 생물학적 뇌의 정보 조직 구조를 그대로 반영한다. 이러한 조직은 학습 과정을 통해 창발하며, 무작위로 초기화된 네트워크에서는 나타나지 않는다. 결정적으로, 시너지적 구성 요소를 제거(ablation)하면 불균형적인 행동 변화와 성능 손실이 발생하는데, 이는 시너지의 취약성에 대한 이론적 예측과 일치한다. 또한, 강화 학습을 통해 시너지 영역을 미세 조정(fine-tuning)할 경우 중복적 구성 요소를 훈련할 때보다 훨씬 더 큰 성능 향상을 얻을 수 있으나, 지도 미세 조정에서는 이러한 이점이 나타나지 않는다. 이러한 결과들의 수렴은 시너지적 정보 처리가 지능의 근본적인 속성임을 시사하며, 원칙에 입각한 모델 설계를 위한 목표와 생물학적 지능에 대해 검증 가능한 예측을 제공한다.
The independent evolution of intelligence in biological and artificial systems offers a unique opportunity to identify its fundamental computational principles. Here we show that large language models spontaneously develop synergistic cores -- components where information integration exceeds individual parts -- remarkably similar to those in the human brain. Using principles of information decomposition across multiple LLM model families and architectures, we find that areas in middle layers exhibit synergistic processing while early and late layers rely on redundancy, mirroring the informational organisation in biological brains. This organisation emerges through learning and is absent in randomly initialised networks. Crucially, ablating synergistic components causes disproportionate behavioural changes and performance loss, aligning with theoretical predictions about the fragility of synergy. Moreover, fine-tuning synergistic regions through reinforcement learning yields significantly greater performance gains than training redundant components, yet supervised fine-tuning shows no such advantage. This convergence suggests that synergistic information processing is a fundamental property of intelligence, providing targets for principled model design and testable predictions for biological intelligence.
AI Analysis
Korean Summary
Key Innovations
- 통합 정보 분해(ΦID) 프레임워크를 LLM의 어텐션 헤드 및 MoE 전문가 분석에 적용
- LLM의 중간 레이어가 정보 통합을 담당하는 '시너지 코어'임을 규명하고 인간 뇌 구조와의 유사성 발견
- 시너지 코어의 형성이 모델 아키텍처가 아닌 학습 과정에서 발생하는 현상임을 입증
- 시너지 코어 영역에 대한 타겟팅된 강화 학습(RL)이 무작위 영역 학습보다 우수한 일반화 성능을 보임을 증명
- 지도 미세 조정(SFT)은 암기 위주로 작동하는 반면, 강화 학습(RL)은 시너지 코어를 강화하여 일반화를 돕는다는 차이점 제시
Learning & Inference Impact
학습 측면에서는 전체 파라미터를 업데이트하는 대신 시너지 코어(주로 중간 레이어)에 집중하여 강화 학습을 수행함으로써 더 효율적으로 복잡한 추론 능력과 일반화 성능을 향상시킬 수 있는 새로운 방법론을 제시합니다. 추론 및 모델 최적화 측면에서는 중복성이 높은 초기 및 후기 레이어(중복적 주변부)가 모델 압축이나 가지치기(Pruning)의 안전한 대상이 될 수 있는 반면, 시너지 코어는 성능 유지를 위해 반드시 보존되어야 함을 시사하여 원칙에 입각한 모델 설계 및 경량화 가이드를 제공합니다.
Technical Difficulty
Estimated implementation complexity based on methodology.