探索未来:BiGym——移动双手机器人操作的新基准

BiGym: A Demo-Driven Mobile Bi-Manual Manipulation Benchmark

摘要

本文介绍了一个名为BiGym的新型基准和学习环境,专门用于移动双手机器人的演示驱动操作。BiGym包含40个多样化的家庭环境任务,从简单的目标达到复杂的厨房清洁任务。为了准确捕捉真实世界的表现,每个任务都提供了人类收集的演示,反映了真实世界机器人轨迹的多样性。BiGym支持多种观察,包括本体感觉数据和来自3个摄像头视角的RGB和深度输入。为了验证BiGym的可用性,本文全面评估了最先进的模仿学习和演示驱动的强化学习算法,并讨论了未来的研究机会。

原理

BiGym的核心在于提供一个模拟环境,其中机器人可以执行双手机器人操作任务。这些任务通过人类演示进行引导,使得机器人能够学习如何执行复杂的操作。BiGym通过提供多模态和噪声的人类收集演示,展示了与通过运动规划器生成的合成演示相比,更真实的机器人运动轨迹。此外,BiGym允许用户在全身模式和双手模式之间切换,分别考虑移动和操作,或仅关注上肢移动操作,同时使用固定控制器控制下肢。这种分离的动作模式使得研究人员能够更好地研究和基准测试不同算法的性能。

流程

BiGym的工作流程包括以下几个步骤:

  1. 任务定义:定义40个不同的移动双手机器人操作任务。
  2. 演示收集:通过VR设备远程操作Unitree H1机器人在模拟中收集人类演示。
  3. 环境设置:基于MuJoCo构建模拟环境,包括机器人配置、观察空间和动作模式。
  4. 算法训练:使用收集的演示数据训练模仿学习和演示驱动的强化学习算法。
  5. 性能评估:在BiGym环境中评估算法的性能,并提供详细的实验结果和讨论。

应用

BiGym为家庭辅助机器人提供了一个挑战性的基准,适用于研究移动双手机器人操作的各种算法。其应用前景包括但不限于:

  • 开发更好的网络架构来近似多模态噪声人类演示。
  • 研究更好的信念估计机制,用于移动操作上下文中的部分可观察马尔可夫决策过程(POMDP)。
  • 探索移动平台上手臂之间的更好协作模式。
  • 改进全身运动规划,提高机器人在拥挤环境中的导航效率和性能。
  • 改进人形机器人的移动和操作控制方法。