探索未来:BiGym——引领移动双手机器人操作的新基准

BiGym: A Demo-Driven Mobile Bi-Manual Manipulation Benchmark

摘要

本文介绍了一个名为BiGym的新型基准和学习环境,专门用于移动双手机器人的演示驱动型操作。BiGym包含40个多样化的家庭环境任务,从简单的目标达到复杂的厨房清洁任务。为了准确捕捉真实世界的表现,每个任务都提供了人类收集的演示,反映了真实世界机器人轨迹的多样性。BiGym支持多种观察,包括本体感受数据和来自3个摄像头视角的RGB及深度输入。为了验证BiGym的可用性,我们在该环境中全面测试了最先进的模仿学习和演示驱动的强化学习算法,并讨论了未来的研究机会。

原理

BiGym的核心在于提供一个模拟环境,其中机器人(基于Unitree H1模型)执行双手机器人操作任务。该环境通过MuJoCo物理引擎构建,支持多种观察模式和动作模式。机器人通过三个摄像头(头部、左腕和右腕)获取RGB和深度图像,同时接收本体感受状态。动作模式包括全身模式和双手机器人模式,允许研究者分别关注移动和操作。任务的成功通过稀疏奖励机制来评估,即只有在任务成功时给予奖励。

流程

BiGym的工作流程从任务定义开始,每个任务都有明确的目标和成功标准。机器人通过摄像头和本体感受传感器收集环境信息,然后根据当前的动作模式(全身或双手机器人)执行动作。动作可以是关节位置控制或末端执行器控制。任务完成后,根据成功标准给予奖励。例如,在“移动两个盘子”任务中,机器人需要将两个盘子从一个排水架移动到另一个,且盘子必须直立且不与桌子碰撞。

应用

BiGym的应用前景广泛,尤其在家庭辅助机器人领域。通过模拟复杂的家庭环境任务,BiGym可以帮助开发和测试新的机器人学习算法,特别是在处理部分可观察性和长时程任务方面。此外,BiGym的多模式演示和稀疏奖励设置为研究提供了挑战,推动了机器人学习领域的进步。