2603.16806v1 Mar 17, 2026 cs.RO

DexGrasp-Zero: 형태학 정렬 정책을 이용한 제로샷, 다중 로봇 플랫폼 적용 가능한 숙련형 집기

DexGrasp-Zero: A Morphology-Aligned Policy for Zero-Shot Cross-Embodiment Dexterous Grasping

Kevin I-Kai Wang
Kevin I-Kai Wang
Citations: 0
h-index: 0
Yuliang Wu
Yuliang Wu
Citations: 3
h-index: 1
WengKit Lao
WengKit Lao
Citations: 0
h-index: 0
Yuhao Lin
Yuhao Lin
Citations: 30
h-index: 3
Ancong Wu
Ancong Wu
Citations: 4,086
h-index: 24

다양한 형태의 숙련형 로봇 핸드 하드웨어의 요구 사항을 충족하기 위해서는, 불필요한 재학습 없이 제로샷 방식으로 다양한 로봇 플랫폼에 적용 가능한 집기 정책을 개발하는 것이 중요합니다. 서로 다른 로봇 핸드의 기구학적 특성과 물리적 제약 조건으로 인해, 플랫폼 간의 일관성을 확보하는 것은 어려운 문제입니다. 기존의 접근 방식은 일반적으로 중간 운동 목표를 예측하고 이를 각 로봇 플랫폼에 맞게 재조정하는데, 이 과정에서 오류가 발생하거나 플랫폼별 특수한 제약을 위반하여 다양한 로봇 플랫폼으로의 성능 이전을 저해할 수 있습니다. 이러한 한계를 극복하기 위해, 저희는 다양한 로봇 플랫폼에서 보편적인 집기 기술을 학습하여, 새로운 로봇 핸드로의 제로샷 성능 이전을 가능하게 하는 정책인 extit{DexGrasp-Zero}를 제안합니다. 먼저, 각 로봇 핸드의 기구학적 주요 지점을 해부학적으로 기반으로 하는 노드로 매핑하고, 각 노드에 3축 직교 운동 기본 동작을 부여하여, 구조적 및 의미적 정렬을 가능하게 하는 형태학 정렬 그래프 표현 방식을 도입했습니다. 이 그래프 기반 표현 방식을 바탕으로, 정책 학습을 위한 extit{형태학 정렬 그래프 컨볼루션 네트워크}(MAGCN)를 설계했습니다. MAGCN은 로봇 핸드별 물리적 제약을 그래프 특징에 통합하는 extit{물리적 특성 주입} 메커니즘을 포함하여, 링크 길이 및 작동 제한의 변화에 대한 적응적인 보정을 통해 정확하고 안정적인 집기를 가능하게 합니다. YCB 데이터셋에 대한 광범위한 시뮬레이션 평가 결과, 저희의 정책은 Allegro, Shadow, Schunk, Ability의 4가지 서로 다른 로봇 핸드에서 공동 학습을 수행하여, LEAP, Inspire와 같은 새로운 하드웨어에서 85%의 제로샷 성공률을 달성했으며, 이는 기존 최고 성능 모델보다 59.5% 향상된 수치입니다. 또한, 실제 환경에서의 실험을 통해 LEAP, Inspire, Revo2의 3가지 로봇 플랫폼에서 저희 정책을 평가한 결과, 새로운 물체에 대해 82%의 평균 성공률을 달성했습니다.

Original Abstract

To meet the demands of increasingly diverse dexterous hand hardware, it is crucial to develop a policy that enables zero-shot cross-embodiment grasping without redundant re-learning. Cross-embodiment alignment is challenging due to heterogeneous hand kinematics and physical constraints. Existing approaches typically predict intermediate motion targets and retarget them to each embodiment, which may introduce errors and violate embodiment-specific limits, hindering transfer across diverse hands. To overcome these limitations, we propose \textit{DexGrasp-Zero}, a policy that learns universal grasping skills from diverse embodiments, enabling zero-shot transfer to unseen hands. We first introduce a morphology-aligned graph representation that maps each hand's kinematic keypoints to anatomically grounded nodes and equips each node with tri-axial orthogonal motion primitives, enabling structural and semantic alignment across different morphologies. Relying on this graph-based representation, we design a \textit{Morphology-Aligned Graph Convolutional Network} (MAGCN) to encode the graph for policy learning. MAGCN incorporates a \textit{Physical Property Injection} mechanism that fuses hand-specific physical constraints into the graph features, enabling adaptive compensation for varying link lengths and actuation limits for precise and stable grasping. Our extensive simulation evaluations on the YCB dataset demonstrate that our policy, jointly trained on four heterogeneous hands (Allegro, Shadow, Schunk, Ability), achieves an 85\% zero-shot success rate on unseen hardware (LEAP, Inspire), outperforming the state-of-the-art method by 59.5\%. Real-world experiments further evaluate our policy on three robot platforms (LEAP, Inspire, Revo2), achieving an 82\% average success rate on unseen objects.

0 Citations
0 Influential
12 Altmetric
60.0 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!