预处理的定义及内容

RoboMIND基础介绍及数据特性分析
一、RoboMIND基本信息概述
RoboMIND是由地方共建具身智能机器人创新中心与北京大学计算机学院联合创建的大型机器人数据集项目,发布时间为2024年12月。该项目涉及多种机器人类型,包括单臂机器人(Franka Emika Panda、UR5e)、双臂机器人(AgileX Cobot Magic V2.0)以及人形机器人(“天工”配备5指灵巧双手)。其数据集规模庞大,包含10.7万条机器人轨迹,涵盖479种任务、96种物体类别和38种操作技能。数据集中还包含机器人执行任务失败案例,每个失败案例都有详细的故障原因记录,这对于模型改进和数据采集方法的优化具有重要意义。
二、RoboMIND数据集特性分析
1. 机器人形态多样化
RoboMIND数据集中,基于不同机器人形态的数据轨迹丰富多样。其中,单臂机器人Franka Emika Panda的数据轨迹占比最高,将近50%。人形机器人“天工”和双臂机器人AgileX Cobot Magic V2.0的数据轨迹也占据了相当比例。这种多样化的机器人形态为数据集带来了丰富的应用场景和多样的任务类型。
2. 任务长度多样化
数据集中,不同机器人执行任务的轨迹长度各异,从短到长都有涵盖。例如,Franka Emika Panda和UR5e的平均轨迹长度较短,适合用于训练基础技能。而人形机器人“天工”和双臂机器人AgileX Cobot Magic V2.0的平均轨迹长度较长,更适合用于长时间跨度的任务训练和技能组合。
3. 任务多样性
数据集中的任务种类繁多,根据任务的语言描述,综合考虑动作、对象和轨迹范围等因素,将整个数据集中的任务分为六大类,包括铰链式操作、协调操作、基本操作、多物体交互、精准操作和场景理解等。其中,精准操作和基础操作占比最高,涵盖了从简单到复杂,从短时到长时的各种操作。
4. 物品类别多样性
RoboMIND数据集涵盖了厨房、家庭、零售、办公室以及工业五大场景里的96种不同物品类别。这种多样化的物体种类增加了数据集的复杂性,有助于训练模型在各种环境下执行操作的通用操控策略。
三、RoboMIND数据集的实验验证与评测
为了验证和评估RoboMIND数据集的性能,项目团队进行了大量的实验验证。在单任务模仿学习模型方面,评估了ACT、Diffusion Policy和BAKU三种模仿学习算法的任务成功率。在VLA视觉语言动作模型方面,评估了OpenVLA、RDT-1B和CrossFormer三种模型的泛化能力和任务成功率。实验结果显示,RoboMIND数据集对于提升单任务模仿学习模型和视觉语言动作模型的性能具有明显效果。
四、RoboMIND数据集的管理与平台建设
为了高效地收集、过滤和处理数据集,研究团队开发了一个智能数据管理平台。该平台采用云原生架构和分布式计算,以处理大规模数据。平台包含五大功能模块:数据采集、数据存储、数据预处理、数据分类和数据标注。其中,数据采集利用遥操作设备从四种类型的机器人上采集数据;数据存储将数据集以标准化HDF5格式进行打包存储;数据预处理基于预定义标准对数据集进行过滤;数据分类根据机器人类型和执行的具体任务对收集的数据集进行分类;数据标注则对已采集数据集执行细粒度语言标注。
RoboMIND数据集以其丰富的数据特性、多样化的任务类型和强大的实验验证能力,为机器人领域的研究提供了宝贵的资源。
