2604.26283v1 Apr 29, 2026 cs.CV

MedSynapse-V: 잠재 기억 진화 기반 시각 인지와 임상적 직관의 융합

MedSynapse-V: Bridging Visual Perception and Clinical Intuition via Latent Memory Evolution

Jiaqi Zeng
Jiaqi Zeng
Citations: 894
h-index: 11
Chunzheng Zhu
Chunzheng Zhu
Citations: 17
h-index: 2
Junyue Jiang
Junyue Jiang
Citations: 1
h-index: 1
Jianxin Lin
Jianxin Lin
Citations: 135
h-index: 7
Yijun Wang
Yijun Wang
Citations: 185
h-index: 8

정밀한 의료 진단은 정적인 영상 특징뿐만 아니라, 전문가들이 영상 해석 과정에서 즉각적으로 활용하는 암묵적인 진단 기억에 의존합니다. 본 연구에서는 의료 분야의 시각-언어 모델(VLM)에서 발생하는 근본적인 인지적 불일치를 지적하며, 이는 이산적인 토큰화로 인해 발생하며, 양자화 손실, 장거리 정보 소실, 그리고 상황에 맞는 전문 지식의 부재를 초래합니다. 이러한 격차를 해소하기 위해, 우리는 잠재적인 진단 기억의 진화를 통해 모델의 숨겨진 흐름 내에서 암묵적인 진단 기억을 동적으로 합성하여, 임상의의 경험적인 판단 과정을 모방하는 프레임워크를 제안합니다. 구체적으로, 학습 가능한 프로브를 사용하여 해부학적 사전 인코더로부터 구조화된 사전 지식을 검색하여 응축된 암묵적인 기억을 생성하는 '메타 쿼리 기반 사전 기억 메커니즘'으로 시작합니다. 임상적 정확성을 확보하기 위해, 영역 수준의 특징 마스킹에서 파생된 반사실적 보상을 활용하는 강화 학습 방법을 도입한 '인과적 반사실적 정제(CCR)'를 통해, 각 기억의 인과적 기여도를 정량화하여 불필요한 부분을 제거하고, 잠재 표현을 진단 논리와 일치시킵니다. 이러한 진화 과정은 '내재적 기억 전환(IMT)'이라는 독자적인 양방향 모델을 통해 마무리됩니다. 이 방식은 전체 어휘의 발산 정렬을 통해, 교사 모델의 진단 패턴을 학생 모델에 내재화합니다. 다양한 데이터 세트에 대한 종합적인 실험 결과는, 본 연구에서 제안하는 방법이 외부 전문 지식을 모델 내부 파라미터로 이전함으로써, 기존의 최첨단 방법, 특히 연쇄적 사고(chain-of-thought) 패러다임보다 진단 정확도 측면에서 현저히 우수한 성능을 보임을 입증합니다.

Original Abstract

High-precision medical diagnosis relies not only on static imaging features but also on the implicit diagnostic memory experts instantly invoke during image interpretation. We pinpoint a fundamental cognitive misalignment in medical VLMs caused by discrete tokenization, leading to quantization loss, long-range information dissipation, and missing case-adaptive expertise. To bridge this gap, we propose ours, a framework for latent diagnostic memory evolution that simulates the experiential invocation of clinicians by dynamically synthesizing implicit diagnostic memories within the model's hidden stream. Specifically, it begins with a Meta Query for Prior Memorization mechanism, where learnable probes retrieve structured priors from an anatomical prior encoder to generate condensed implicit memories. To ensure clinical fidelity, we introduce Causal Counterfactual Refinement (CCR), which leverages reinforcement learning and counterfactual rewards derived from region-level feature masking to quantify the causal contribution of each memory, thereby pruning redundancies and aligning latent representations with diagnostic logic. This evolutionary process culminates in Intrinsic Memory Transition (IMT), a privileged-autonomous dual-branch paradigm that internalizes teacher-branch diagnostic patterns into the student-branch via full-vocabulary divergence alignment. Comprehensive empirical evaluations across multiple datasets demonstrate that ours, by transferring external expertise into endogenous parameters, significantly outperforms existing state-of-the-art methods, particularly chain-of-thought paradigms, in diagnostic accuracy.

0 Citations
0 Influential
5.5 Altmetric
27.5 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!