최적의 공간 매핑을 통한 비정형 생물 의학 표 데이터에 대한 시각 기반 딥러닝 분석
Vision-based Deep Learning Analysis of Unordered Biomedical Tabular Datasets via Optimal Spatial Cartography
표 데이터는 액체 생검, 벌크 및 단일 세포 트랜스크립토믹스, 전자 건강 기록 및 표현형 프로파일링 등 생물 의학 연구의 핵심 요소입니다. 그러나 이미지나 시퀀스와 달리 표 데이터 세트는 고유한 공간 구조를 가지고 있지 않습니다. 특징은 정렬되지 않은 차원으로 처리되며, 모델은 이러한 특징 간의 관계를 암묵적으로 추론해야 합니다. 이는 시각 아키텍처가 비공간 생물 의학 데이터의 지역 구조와 고차원 특징 상호 작용을 활용하는 능력을 제한합니다. 본 연구에서는 Dynamic Feature Mapping (Dynomap)이라는 엔드투엔드 딥러닝 프레임워크를 소개합니다. Dynomap은 데이터로부터 직접 최적화된 공간 토폴로지를 학습하며, 휴리스틱, 사전 정의된 그룹 또는 외부 사전 지식에 의존하지 않고, 완전하게 미분 가능한 렌더링 메커니즘을 통해 특징 배치와 예측을 동시에 최적화합니다. Dynomap은 고차원 표 벡터를 학습된 특징 맵으로 변환하여 시각 기반 모델이 비정형 생물 의학 입력 데이터에 효과적으로 작동할 수 있도록 합니다. 여러 임상 및 생물학 데이터 세트에서 Dynomap은 기존 머신 러닝, 최신 딥 표 모델 및 기존 벡터-이미지 변환 방식보다 일관되게 우수한 성능을 보였습니다. 액체 생검 데이터에서 Dynomap은 임상적으로 중요한 유전자 서명을 일관된 공간 패턴으로 구성하고 다중 클래스 암 아형 예측 정확도를 최대 18% 향상시켰습니다. 파킨슨병 음성 데이터 세트에서는 질병 관련 음향 특성 기술자를 클러스터링하고 정확도를 최대 8% 향상시켰습니다. 추가적인 생물 의학 데이터 세트에서도 유사한 성능 향상과 해석 가능한 특징 구성이 관찰되었습니다. 이러한 결과는 Dynomap을 표 데이터와 시각 기반 딥러닝을 연결하고 고차원 생물 의학 데이터에서 구조화되고 임상적으로 관련된 패턴을 발견하는 데 사용할 수 있는 일반적인 전략으로 확립합니다.
Tabular data are central to biomedical research, from liquid biopsy and bulk and single-cell transcriptomics to electronic health records and phenotypic profiling. Unlike images or sequences, however, tabular datasets lack intrinsic spatial organization: features are treated as unordered dimensions, and their relationships must be inferred implicitly by the model. This limits the ability of vision architectures to exploit local structure and higher-order feature interactions in non-spatial biomedical data. Here we introduce Dynamic Feature Mapping (Dynomap), an end-to-end deep learning framework that learns a task-optimized spatial topology of features directly from data. Dynomap jointly optimizes feature placement and prediction through a fully differentiable rendering mechanism, without relying on heuristics, predefined groupings, or external priors. By transforming high-dimensional tabular vectors into learned feature maps, Dynomap enables vision-based models to operate effectively on unordered biomedical inputs. Across multiple clinical and biological datasets, Dynomap consistently outperformed classical machine learning, modern deep tabular models, and existing vector-to-image approaches. In liquid biopsy data, Dynomap organized clinically relevant gene signatures into coherent spatial patterns and improved multiclass cancer subtype prediction accuracy by up to 18%. In a Parkinson disease voice dataset, it clustered disease-associated acoustic descriptors and improved accuracy by up to 8%. Similar gains and interpretable feature organization were observed in additional biomedical datasets. These results establish Dynomap as a general strategy for bridging tabular and vision-based deep learning and for uncovering structured, clinically relevant patterns in high-dimensional biomedical data.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.