MedCausalX: 자기 성찰을 통한 적응적 인과 추론을 활용한 신뢰성 있는 의료용 시각-언어 모델
MedCausalX: Adaptive Causal Reasoning with Self-Reflection for Trustworthy Medical Vision-Language Models
시각-언어 모델(VLMs)은 시각적 인식과 언어적 추론을 통합하여 해석 가능한 의료 진단을 가능하게 했습니다. 그러나 기존의 의료용 연쇄 추론(CoT) 모델은 명시적인 인과 추론 메커니즘이 부족하여, 피상적인 상관관계에 취약하며 임상적 신뢰성을 제한합니다. 본 연구에서는 의료용 CoT 추론에서 발생하는 세 가지 핵심 과제를 지적합니다. 즉, 인과적 교정을 어떻게 적응적으로 유도할 것인지, 고품질의 인과-허위 대비 샘플을 어떻게 구성할 것인지, 그리고 추론 경로 전체에 걸쳐 인과적 일관성을 어떻게 유지할 것인지입니다. 이러한 과제에 대응하기 위해, 우리는 의료용 VLM에서 인과적 추론 체인을 명시적으로 모델링하는 통합 프레임워크인 MedCausalX를 제안합니다. 먼저, 우리는 정교한 해부학적 주석, 구조화된 인과적 추론 체인, 그리고 피상적인 상관관계를 넘어 인과 관계 학습을 유도하는 반사실적 변형을 제공하는 CRMed 데이터셋을 소개합니다. CRMed를 기반으로, MedCausalX는 $ extless$causal$ extgreater$ 및 $ extless$verify$ extgreater$ 토큰을 갖춘 2단계 적응적 성찰 아키텍처를 활용하여, 모델이 인과 분석 및 검증을 언제, 어떻게 수행해야 하는지를 자율적으로 결정할 수 있도록 합니다. 마지막으로, 오류 기반 강화 학습을 통해 최적화된 추론 경로 수준의 인과적 교정 목표는 추론 체인을 개선하여 모델이 진정한 인과적 의존성을 피상적인 연관성으로부터 구별할 수 있도록 합니다. 다양한 벤치마크에서의 광범위한 실험 결과는 MedCausalX가 최첨단 방법보다 일관되게 뛰어난 성능을 보이며, 진단 일관성을 +5.4 포인트 향상시키고, 환각 현상을 10 포인트 이상 감소시키며, 최고 수준의 공간적 정밀도(IoU)를 달성하여, 인과적으로 근거한 의료 추론의 새로운 기준을 제시함을 보여줍니다.
Vision-Language Models (VLMs) have enabled interpretable medical diagnosis by integrating visual perception with linguistic reasoning. Yet, existing medical chain-of-thought (CoT) models lack explicit mechanisms to represent and enforce causal reasoning, leaving them vulnerable to spurious correlations and limiting their clinical reliability. We pinpoint three core challenges in medical CoT reasoning: how to adaptively trigger causal correction, construct high-quality causal-spurious contrastive samples, and maintain causal consistency across reasoning trajectories. To address these challenges, we propose MedCausalX, an end-to-end framework explicitly models causal reasoning chains in medical VLMs. We first introduce the CRMed dataset providing fine-grained anatomical annotations, structured causal reasoning chains, and counterfactual variants that guide the learning of causal relationships beyond superficial correlations. Building upon CRMed, MedCausalX employs a two-stage adaptive reflection architecture equipped with $\langle$causal$\rangle$ and $\langle$verify$\rangle$ tokens, enabling the model to autonomously determine when and how to perform causal analysis and verification. Finally, a trajectory-level causal correction objective optimized through error-attributed reinforcement learning refines the reasoning chain, allowing the model to distinguish genuine causal dependencies from shortcut associations. Extensive experiments on multiple benchmarks show that MedCausalX consistently outperforms state-of-the-art methods, improving diagnostic consistency by +5.4 points, reducing hallucination by over 10 points, and attaining top spatial grounding IoU, thereby setting a new standard for causally grounded medical reasoning.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.