SOMA: 매개변수 기반 인간 신체 모델의 통합
SOMA: Unifying Parametric Human Body Models
매개변수 기반 인간 신체 모델은 인간 재구성, 애니메이션 및 시뮬레이션의 기초가 되지만, 현재 모델들은 서로 호환되지 않습니다. SMPL, SMPL-X, MHR, Anny 및 관련 모델들은 메시 토폴로지, 골격 구조, 형상 매개변수화 및 단위 규약에서 서로 다르기 때문에, 각 모델의 장점을 하나의 파이프라인 내에서 활용하기 어렵습니다. 본 연구에서는 세 가지 추상화 레이어를 통해 이러한 이질적인 표현 방식을 연결하는 통합 신체 레이어인 SOMA를 제안합니다. 메시 토폴로지 추상화는 모든 소스 모델의 정보를 공유된 표준 메시로 변환하며, 변환 시간은 각 정점당 일정합니다. 골격 추상화는 휴식 자세 또는 임의의 자세 상태에서 어떤 신체 형상에 대해서도 전체 관절 변환을 단일 닫힌 형태로 복원하며, 반복적인 최적화나 모델별 훈련이 필요하지 않습니다. 자세 추상화는 스키닝 파이프라인을 역전시켜 어떤 모델의 임의의 자세 상태에 있는 정점으로부터 직접 통합된 골격 회전을 복원하여, 사용자 정의 리타겟팅 없이 다양한 모션 데이터셋을 사용할 수 있도록 합니다. 이러한 레이어들은 모델 쌍 간의 어댑터 문제인 $O(M^2)$을 $O(M)$의 단일 백엔드 연결 문제로 줄여, 실무자들이 추론 시에 다양한 모델의 정보를 자유롭게 혼합할 수 있도록 합니다. 전체 파이프라인은 엔드 투 엔드 완전 미분 가능하며, NVIDIA-Warp를 통해 GPU 가속을 지원합니다.
Parametric human body models are foundational to human reconstruction, animation, and simulation, yet they remain mutually incompatible: SMPL, SMPL-X, MHR, Anny, and related models each diverge in mesh topology, skeletal structure, shape parameterization, and unit convention, making it impractical to exploit their complementary strengths within a single pipeline. We present SOMA, a unified body layer that bridges these heterogeneous representations through three abstraction layers. Mesh topology abstraction maps any source model's identity to a shared canonical mesh in constant time per vertex. Skeletal abstraction recovers a full set of identity-adapted joint transforms from any body shape, whether in rest pose or an arbitrary posed configuration, in a single closed-form pass, with no iterative optimization or per-model training. Pose abstraction inverts the skinning pipeline to recover unified skeleton rotations directly from posed vertices of any supported model, enabling heterogeneous motion datasets to be consumed without custom retargeting. Together, these layers reduce the $O(M^2)$ per-pair adapter problem to $O(M)$ single-backend connectors, letting practitioners freely mix identity sources and pose data at inference time. The entire pipeline is fully differentiable end-to-end and GPU-accelerated via NVIDIA-Warp.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.