생각의 사슬 압축: 이론적 분석
Chain Of Thought Compression: A Theoritical Analysis
생각의 사슬(Chain-of-Thought, CoT)은 중간 단계를 통해 거대 언어 모델(LLM)의 고도화된 추론 능력을 이끌어냈지만, 추가 토큰 생성으로 인해 막대한 계산 비용을 발생시킵니다. 최근 연구들은 추론 단계를 잠재 상태로 압축하는 '암시적 CoT 압축'이 토큰 효율적인 대안을 제공함을 경험적으로 보여주었습니다. 그러나 CoT 압축의 기제는 여전히 불분명합니다. 본 논문에서는 중간 추론 단계를 내재화하여 학습하는 것의 난이도에 대한 최초의 이론적 분석을 제시합니다. 우리는 'r차 상호작용(Order-r Interaction)'을 도입하여, 중간 단계를 건너뛰는 것이 필연적으로 고차 상호작용 장벽으로 이어지는 환원 불가능한 문제의 경우, 고차 논리적 의존성에 대한 학습 신호가 지수적으로 감쇠함을 증명합니다. 이를 경험적으로 검증하기 위해 환원 불가능한 논리적 추론을 강제하고 의미론적 지름길을 배제하도록 설계된 고난도 벤치마크인 NatBool-DAG를 소개합니다. 이론적 발견을 바탕으로, 우리는 잠재 토큰 분포를 중간 추론 상태와 정렬하여 신호 감쇠를 극복하는 새로운 프레임워크인 ALiCoT(Aligned Implicit CoT)를 제안합니다. 실험 결과, ALiCoT는 명시적 CoT와 대등한 성능을 유지하면서 54.4배의 속도 향상을 달성하여 효율적인 추론을 성공적으로 구현함을 입증했습니다.
Chain-of-Thought (CoT) has unlocked advanced reasoning abilities of Large Language Models (LLMs) with intermediate steps, yet incurs prohibitive computational costs due to generation of extra tokens. Recent studies empirically show that compressing reasoning steps into latent states, or implicit CoT compression, offers a token-efficient alternative. However, the mechanism behind CoT compression remains unclear. In this paper, we provide the first theoretical analysis of the difficulty of learning to internalize intermediate reasoning steps. By introducing Order-r Interaction, we prove that the learning signal for high-order logical dependencies exponentially decays to solve irreducible problem, where skipping intermediate steps inevitably leads to high-order interaction barriers. To empirically validate this, we introduce NatBool-DAG, a challenging benchmark designed to enforce irreducible logical reasoning and eliminate semantic shortcuts. Guided by our theoretical findings, we propose ALiCoT (Aligned Implicit CoT), a novel framework that overcomes the signal decay by aligning latent token distributions with intermediate reasoning states. Experimental results demonstrate that ALiCoT successfully unlocks efficient reasoning: it achieves a 54.4x speedup while maintaining performance comparable to explicit CoT.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.