공간 전사체학 기반 병리학 기초 모델 개발 연구
Towards Spatial Transcriptomics-driven Pathology Foundation Models
공간 전사체학(Spatial Transcriptomics, ST)은 유전자 발현의 공간적 정보를 제공하여 조직의 분자 환경을 조직학적 평가를 넘어 더 자세하게 분석할 수 있으며, 특정 위치의 정보를 형태학적 특징과 연결할 수 있도록 합니다. 또한, 시각 정보와 다른 정보를 통합하는 다중 모드 기반 모델의 성공은 분자 발현과 형태학 간의 연관성을 체계적으로 활용하여 조직학적 표현 자체를 개선할 수 있음을 시사합니다. 본 연구에서는 공간 전사체학 정보를 활용하여 조직병리학 시각 인코더에 분자 정보를 통합하는 자기 지도 학습 프레임워크인 Spatial Expression-Aligned Learning (SEAL)을 제안합니다. SEAL은 처음부터 새로운 인코더를 훈련하는 대신, 기존에 널리 사용되는 조직병리학 기초 모델에 유연하게 적용할 수 있는 효율적인 시각-유전체 미세 조정 방법으로 설계되었습니다. 14개 장기의 종양 및 정상 조직 샘플에서 수집된 70만 건 이상의 유전자 발현 스팟-조직 영역 데이터로 SEAL을 학습시켰습니다. 38개의 슬라이드 수준 및 15개의 패치 수준의 다양한 downstream 작업에서 SEAL은 기존의 시각 정보만 사용하거나 공간 전사체학 예측 모델보다 성능이 우수하며, 슬라이드 수준에서의 분자 상태, 경로 활성 및 치료 반응 예측, 그리고 패치 수준에서의 유전자 발현 예측 작업에서 일관된 성능 향상을 보였습니다. 또한, SEAL 인코더는 다양한 환경에서의 일반화 능력이 뛰어나며, 유전자-이미지 검색과 같은 새로운 cross-modal 기능을 제공합니다. 본 연구는 공간 전사체학 정보를 활용하여 조직병리학 기초 모델을 미세 조정하는 일반적인 프레임워크를 제시하며, 기존 모델에 분자 정보를 추가하는 것이 시각적 표현을 개선하고 cross-modal 활용성을 확장하는 효과적이고 실용적인 방법임을 보여줍니다.
Spatial transcriptomics (ST) provides spatially resolved measurements of gene expression, enabling characterization of the molecular landscape of human tissue beyond histological assessment as well as localized readouts that can be aligned with morphology. Concurrently, the success of multimodal foundation models that integrate vision with complementary modalities suggests that morphomolecular coupling between local expression and morphology can be systematically used to improve histological representations themselves. We introduce Spatial Expression-Aligned Learning (SEAL), a vision-omics self-supervised learning framework that infuses localized molecular information into pathology vision encoders. Rather than training new encoders from scratch, SEAL is designed as a parameter-efficient vision-omics finetuning method that can be flexibly applied to widely used pathology foundation models. We instantiate SEAL by training on over 700,000 paired gene expression spot-tissue region examples spanning tumor and normal samples from 14 organs. Tested across 38 slide-level and 15 patch-level downstream tasks, SEAL provides a drop-in replacement for pathology foundation models that consistently improves performance over widely used vision-only and ST prediction baselines on slide-level molecular status, pathway activity, and treatment response prediction, as well as patch-level gene expression prediction tasks. Additionally, SEAL encoders exhibit robust domain generalization on out-of-distribution evaluations and enable new cross-modal capabilities such as gene-to-image retrieval. Our work proposes a general framework for ST-guided finetuning of pathology foundation models, showing that augmenting existing models with localized molecular supervision is an effective and practical step for improving visual representations and expanding their cross-modal utility.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.