2601.21414v1 Jan 29, 2026 cs.AI

동적 모델 보간을 통한 시스템 1과 2의 시너지

System 1&2 Synergy via Dynamic Model Interpolation

Chenxu Yang
Chenxu Yang
Citations: 300
h-index: 7
Q. Si
Q. Si
Citations: 408
h-index: 9
Chong Tian
Chong Tian
Citations: 5
h-index: 1
Xiyu Liu
Xiyu Liu
Citations: 25
h-index: 3
Dingyu Yao
Dingyu Yao
Citations: 10
h-index: 2
Zheng Lin
Zheng Lin
Citations: 152
h-index: 4
Weiping Wang
Weiping Wang
Citations: 156
h-index: 4
Chuan Qin
Chuan Qin
Citations: 16
h-index: 2
Jiaqi Wang
Jiaqi Wang
Citations: 337
h-index: 3

직관적인 시스템 1과 숙고하는 시스템 2 사이를 적응하는 통합 언어 모델을 훈련하는 것은 인지 모드 간의 간섭으로 인해 여전히 어려운 과제로 남아있습니다. 이에 최근 연구들은 시스템 2 모델을 더 효율적으로 만드는 데 주력해 왔습니다. 그러나 이러한 접근법들은 출력 제어에만 초점을 맞추어 모델이 생성하는 내용을 제한한다는 한계가 있습니다. 우리는 이러한 패러다임이 잘못되었다고 주장합니다. 출력 길이는 모델의 인지적 구성의 증상일 뿐 근본적인 원인은 아니기 때문입니다. 본 연구에서는 초점을 능력 제어로 전환하여, 모델이 '무엇을 생성하는지'가 아니라 '어떻게 생각하는지'를 조절합니다. 이를 실현하기 위해 우리는 추가적인 훈련 없이 동적 파라미터 보간을 통해 기존의 Instruct 및 Thinking 체크포인트를 활용합니다. 우리의 예비 연구에 따르면 선형 보간은 표현의 연속성과 구조적 연결성에 의해 뒷받침되는 볼록하고 단조로운 파레토 프론티어를 생성하는 것으로 확인되었습니다. 이를 바탕으로 우리는 쿼리별 추론 강도 λ(q)를 추정하여 인지적 깊이를 구성하는 프레임워크인 DAMI(Dynamic Model Interpolation)를 제안합니다. 훈련 기반 추정을 위해 정확도와 효율성 기준을 반영하는 선호도 학습 방법을 개발하고, 제로샷 배포를 위해 모델 간 인지적 불일치를 활용하는 신뢰도 기반 방법을 도입합니다. 5가지 수학적 추론 벤치마크에 대한 실험 결과, DAMI는 효율성을 유지하면서도 Thinking 모델보다 높은 정확도를 달성하여 시스템 1의 효율성과 시스템 2의 추론 깊이를 효과적으로 결합함을 입증했습니다.

Original Abstract

Training a unified language model that adapts between intuitive System 1 and deliberative System 2 remains challenging due to interference between their cognitive modes. Recent studies have thus pursued making System 2 models more efficient. However, these approaches focused on output control, limiting what models produce. We argue that this paradigm is misaligned: output length is merely a symptom of the model's cognitive configuration, not the root cause. In this work, we shift the focus to capability control, which modulates \textit{how models think} rather than \textit{what they produce}. To realize this, we leverage existing Instruct and Thinking checkpoints through dynamic parameter interpolation, without additional training. Our pilot study establishes that linear interpolation yields a convex, monotonic Pareto frontier, underpinned by representation continuity and structural connectivity. Building on this, we propose \textbf{DAMI} (\textbf{D}yn\textbf{A}mic \textbf{M}odel \textbf{I}nterpolation), a framework that estimates a query-specific Reasoning Intensity $λ(q)$ to configure cognitive depth. For training-based estimation, we develop a preference learning method encoding accuracy and efficiency criteria. For zero-shot deployment, we introduce a confidence-based method leveraging inter-model cognitive discrepancy. Experiments on five mathematical reasoning benchmarks demonstrate that DAMI achieves higher accuracy than the Thinking model while remaining efficient, effectively combining the efficiency of System 1 with the reasoning depth of System 2.

0 Citations
0 Influential
4.5 Altmetric
22.5 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!