2602.14518v1 Feb 16, 2026 cs.AI

멀티모달 긴 연쇄 추론에서의 지식 충돌 진단

Diagnosing Knowledge Conflict in Multimodal Long-Chain Reasoning

Haolang Lu
Haolang Lu
Citations: 132
h-index: 4
Guoshun Nan
Guoshun Nan
Citations: 40
h-index: 3
Zhongxiang Sun
Zhongxiang Sun
Citations: 2
h-index: 1
Lingjuan Lyu
Lingjuan Lyu
Citations: 392
h-index: 2
Kai Chen
Kai Chen
Citations: 394
h-index: 4
Kun Wang
Kun Wang
Citations: 74
h-index: 3
Jing Tang
Jing Tang
Citations: 415
h-index: 5
Hongjin Chen
Hongjin Chen
Citations: 28
h-index: 3
Qiankun Li
Qiankun Li
Citations: 0
h-index: 0
Zhigang Zeng
Zhigang Zeng
Citations: 0
h-index: 0

긴 생각의 사슬(CoT) 추론을 수행하는 멀티모달 대형 언어 모델(MLLM)은 서로 다른 지식 출처가 상충되는 신호를 제공할 때 자주 실패합니다. 우리는 이러한 실패를 지식 충돌이라는 통합된 개념 하에 정식화하며, 입력 수준의 객관적 충돌과 처리 수준의 실효적 충돌을 구분합니다. 내부 표현에 대한 프로빙을 통해 우리는 다음을 밝혀냈습니다: (I) 선형 분리 가능성: 서로 다른 충돌 유형은 얽혀 있기보다 선형적으로 분리 가능한 특징으로 명시적으로 인코딩됩니다; (II) 깊이 국소화: 충돌 신호는 중후반 레이어에 집중되며, 이는 충돌 인코딩을 위한 별도의 처리 단계가 있음을 나타냅니다; (III) 계층적 일관성: 궤적을 따라 노이즈가 있는 토큰 수준 신호를 집계하면 입력 수준의 충돌 유형을 강건하게 복구할 수 있습니다; 그리고 (IV) 방향 비대칭성: 충돌 상황에서 모델의 암묵적 출처 선호를 강화하는 것이 반대 출처를 강제하는 것보다 훨씬 쉽습니다. 우리의 연구 결과는 지식 충돌 하에서의 멀티모달 추론에 대한 메커니즘 수준의 관점을 제공하며, 긴 CoT 실패에 대한 체계적인 진단과 제어를 가능하게 합니다.

Original Abstract

Multimodal large language models (MLLMs) in long chain-of-thought reasoning often fail when different knowledge sources provide conflicting signals. We formalize these failures under a unified notion of knowledge conflict, distinguishing input-level objective conflict from process-level effective conflict. Through probing internal representations, we reveal that: (I) Linear Separability: different conflict types are explicitly encoded as linearly separable features rather than entangled; (II) Depth Localization: conflict signals concentrate in mid-to-late layers, indicating a distinct processing stage for conflict encoding; (III) Hierarchical Consistency: aggregating noisy token-level signals along trajectories robustly recovers input-level conflict types; and (IV) Directional Asymmetry: reinforcing the model's implicit source preference under conflict is far easier than enforcing the opposite source. Our findings provide a mechanism-level view of multimodal reasoning under knowledge conflict and enable principled diagnosis and control of long-CoT failures.

0 Citations
0 Influential
2.5 Altmetric
12.5 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!