FastGrasp: 모바일 로봇을 위한 고속 정밀 조작 기술: 학습 기반 전체 몸체 제어 방법
FastGrasp: Learning-based Whole-body Control method for Fast Dexterous Grasping with Mobile Manipulators
빠른 조작 능력은 물류, 제조 및 서비스 분야의 모바일 로봇에게 매우 중요합니다. 기존 방법은 고속 동작에서의 충격 안정화, 실시간 전체 몸체 조정, 그리고 다양한 물체 및 환경에 대한 일반화 능력 측면에서 근본적인 어려움을 겪고 있습니다. 이러한 문제점은 고정된 베이스, 단순한 그리퍼, 또는 느린 촉각 반응 능력에 의해 제한됩니다. 본 연구에서는 조작 지침, 전체 몸체 제어, 그리고 촉각 피드백을 통합하는 학습 기반 프레임워크인 extbf{FastGrasp}를 제안합니다. 저희의 2단계 강화 학습 전략은 먼저 객체 점군 데이터에 기반한 조건부 변분 오토인코더를 사용하여 다양한 조작 후보를 생성한 다음, 최적의 조작 선택에 따라 모바일 베이스, 팔, 그리고 손의 조화로운 움직임을 실행합니다. 촉각 센싱은 충격 효과와 물체의 변화에 대한 실시간 조작 조정 기능을 제공합니다. 광범위한 실험 결과는 시뮬레이션 및 실제 환경 모두에서 우수한 조작 성능을 보여주며, 효과적인 시뮬레이션-실제 이전 기술을 통해 다양한 물체의 형상에 대한 강력한 조작 능력을 달성했습니다.
Fast grasping is critical for mobile robots in logistics, manufacturing, and service applications. Existing methods face fundamental challenges in impact stabilization under high-speed motion, real-time whole-body coordination, and generalization across diverse objects and scenarios, limited by fixed bases, simple grippers, or slow tactile response capabilities. We propose \textbf{FastGrasp}, a learning-based framework that integrates grasp guidance, whole-body control, and tactile feedback for mobile fast grasping. Our two-stage reinforcement learning strategy first generates diverse grasp candidates via conditional variational autoencoder conditioned on object point clouds, then executes coordinated movements of mobile base, arm, and hand guided by optimal grasp selection. Tactile sensing enables real-time grasp adjustments to handle impact effects and object variations. Extensive experiments demonstrate superior grasping performance in both simulation and real-world scenarios, achieving robust manipulation across diverse object geometries through effective sim-to-real transfer.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.