Chain of Mindset: 적응형 인지 모드를 활용한 추론
Chain of Mindset: Reasoning with Adaptive Cognitive Modes
인간의 문제 해결은 결코 단일한 사고방식(mindset), 즉 뚜렷한 인지 처리 모드의 반복이 아니다. 특정 작업을 수행할 때, 우리는 단일 사고방식에 의존하지 않고 대신 하나의 해결 과정 내에서 여러 사고방식을 통합한다. 그러나 기존의 LLM 추론 방법들은 일반적인 함정에 빠져 있다. 즉, 동일한 문제 해결의 서로 다른 단계가 근본적으로 다른 사고방식을 필요로 한다는 점을 간과한 채, 모든 단계에 동일하고 고정된 사고방식을 적용하는 것이다. 이러한 단일 사고방식 가정은 모델이 다음 단계의 지능 수준에 도달하는 것을 방해한다. 이러한 한계를 해결하기 위해, 본 논문에서는 단계별 적응형 사고방식 조율을 가능하게 하는 훈련이 필요 없는 에이전트 프레임워크인 Chain of Mindset(CoM)을 제안한다. CoM은 추론을 공간적(Spatial), 수렴적(Convergent), 발산적(Divergent), 알고리즘적(Algorithmic)이라는 기능적으로 이질적인 네 가지 사고방식으로 분해한다. 메타 에이전트(Meta-Agent)는 전개되는 추론 상태에 기반하여 최적의 사고방식을 동적으로 선택하며, 양방향 컨텍스트 게이트(Context Gate)는 교차 모듈 정보 흐름을 필터링하여 효과성과 효율성을 유지한다. 수학, 코드 생성, 과학적 질의응답(QA), 공간 추론을 아우르는 6가지 난이도 높은 벤치마크 실험 결과, CoM은 Qwen3-VL-32B-Instruct와 Gemini-2.0-Flash에서 가장 강력한 베이스라인 대비 전체 정확도를 각각 4.96% 및 4.72% 향상시키며 최고 수준(SOTA)의 성능을 달성하였고, 동시에 추론 효율성의 균형을 맞춘 것으로 나타났다. 코드는 https://github.com/QuantaAlpha/chain-of-mindset 에서 이용 가능하다.
Human problem-solving is never the repetition of a single mindset, by which we mean a distinct mode of cognitive processing. When tackling a specific task, we do not rely on a single mindset; instead, we integrate multiple mindsets within the single solution process. However, existing LLM reasoning methods fall into a common trap: they apply the same fixed mindset across all steps, overlooking that different stages of solving the same problem require fundamentally different mindsets. This single-minded assumption prevents models from reaching the next level of intelligence. To address this limitation, we propose Chain of Mindset (CoM), a training-free agentic framework that enables step-level adaptive mindset orchestration. CoM decomposes reasoning into four functionally heterogeneous mindsets: Spatial, Convergent, Divergent, and Algorithmic. A Meta-Agent dynamically selects the optimal mindset based on the evolving reasoning state, while a bidirectional Context Gate filters cross-module information flow to maintain effectiveness and efficiency. Experiments across six challenging benchmarks spanning mathematics, code generation, scientific QA, and spatial reasoning demonstrate that CoM achieves state-of-the-art performance, outperforming the strongest baseline by 4.96\% and 4.72\% in overall accuracy on Qwen3-VL-32B-Instruct and Gemini-2.0-Flash, while balancing reasoning efficiency. Our code is publicly available at \href{https://github.com/QuantaAlpha/chain-of-mindset}{https://github.com/QuantaAlpha/chain-of-mindset}.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.