2603.15500v1 Mar 16, 2026 cs.AI

불확실성 하에서의 전략적 정보 할당을 통한 LLM의 추론 이해

Understanding Reasoning in LLMs through Strategic Information Allocation under Uncertainty

Minbeom Kim
Minbeom Kim
Seoul National University
Citations: 324
h-index: 10
Sangmook Lee
Sangmook Lee
Citations: 28
h-index: 2
Xufang Luo
Xufang Luo
Beihang University
Citations: 1,750
h-index: 19
Dongsheng Li
Dongsheng Li
Citations: 520
h-index: 7
Jeonghye Kim
Jeonghye Kim
Citations: 88
h-index: 5
Yuqing Yang
Yuqing Yang
Citations: 138
h-index: 5

LLM은 추론 과정에서 종종 '아하!' 순간을 경험하며, 예를 들어 "잠깐만요"와 같은 토큰 다음에 자발적인 수정이 나타나기도 합니다. 그러나 이러한 현상의 근본적인 작동 방식은 아직 명확하지 않습니다. 본 연구에서는 추론 과정을 절차적 정보와 인식적 표현(epistemic verbalization)으로 분해하는 정보 이론 기반의 프레임워크를 제시합니다. 인식적 표현은 불확실성을 명시적으로 외부화하여 후속적인 제어 작업을 지원합니다. 연구 결과는 순수한 절차적 추론이 정보적으로 정체될 수 있는 반면, 인식적 표현은 지속적인 정보 획득을 가능하게 하며, 정보의 충분성을 달성하는 데 매우 중요함을 보여줍니다. 실증적 결과는 강력한 추론 성능이 특정 표면 토큰보다는 불확실성 외부화에 의해 주도된다는 것을 입증합니다. 본 프레임워크는 기존의 '아하!' 순간에 대한 연구 결과와 사전 학습 이후의 실험 결과를 통합하고, 향후 추론 모델 설계에 대한 통찰력을 제공합니다.

Original Abstract

LLMs often exhibit Aha moments during reasoning, such as apparent self-correction following tokens like "Wait," yet their underlying mechanisms remain unclear. We introduce an information-theoretic framework that decomposes reasoning into procedural information and epistemic verbalization - the explicit externalization of uncertainty that supports downstream control actions. We show that purely procedural reasoning can become informationally stagnant, whereas epistemic verbalization enables continued information acquisition and is critical for achieving information sufficiency. Empirical results demonstrate that strong reasoning performance is driven by uncertainty externalization rather than specific surface tokens. Our framework unifies prior findings on Aha moments and post-training experiments, and offers insights for future reasoning model design.

2 Citations
0 Influential
9.5 Altmetric
49.5 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!