RoboBrain是什么
RoboBrain是智源研究院推出的开源具身大脑模型,推动单机智能迈向群体智能。由三个模块组成:用于任务规划的基座模型、用于可操作区域感知的A-LoRA模块和用于轨迹预测的T-LoRA模块。RoboBrain采用多阶段训练策略,具备长历史帧记忆和高分辨率图像感知能力,能将抽象指令映射为具体动作。在任务规划、可操作区域感知和轨迹预测等评测任务中均表现出色。
RoboBrain的主要功能
- 规划能力(Planning Capability):将复杂的操作指令分解为可管理的子任务。例如,将“提起茶壶并将水倒入杯中”分解为“靠近茶壶并提起”“移动茶壶使壶嘴对准杯口”和“倾斜茶壶倒水”等步骤。
- 可操作性感知(Affordance Perception):识别和解释交互对象的可操作区域,如茶壶的把手或壶嘴。
- 轨迹预测(Trajectory Prediction):预测完成操作所需的完整轨迹,如从当前位置到茶壶把手的运动轨迹。
RoboBrain的技术原理
- 模型架构:RoboBrain基于LLaVA框架,由以下三个主要模块组成:
- 视觉编码器(Visual Encoder):使用SigLIP模型,将输入图像编码为视觉特征。
- 投影器(Projector):通过两层MLP将视觉特征映射到与文本嵌入相同的维度。
- 大语言模型(LLM):采用Qwen2.5-7B-Instruct模型,用于理解和生成文本指令。
- 多阶段训练策略:RoboBrain采用多阶段训练策略,提升其在机器人操作任务中的性能:
- 通用视觉训练(OneVision Training):在大规模通用视觉数据集上进行预训练,以开发基础的视觉和语言理解能力。
- 机器人任务训练:在ShareRobot数据集上进行微调,增强任务规划、可操作区域感知和轨迹预测能力。
- 数据集支持:RoboBrain的训练依赖于ShareRobot数据集,是高质量的异构数据集,包含任务规划、物体可操作区域和末端执行器轨迹等多维度标注。数据集的多样性和准确性经过精心设计,支持模型在复杂任务中的表现。
- 推理过程:在实际应用中,RoboBrain首先感知视觉输入,将输入指令分解为一系列可执行的子任务,然后执行可操作区域感知和轨迹预测。分步处理方式使模型能高效地将抽象指令转化为具体的机器人操作。
RoboBrain的项目地址
- 项目官网:https://superrobobrain.github.io/
- Github仓库:https://github.com/FlagOpen/RoboBrain
- HuggingFace模型库:https://huggingface.co/BAAI/RoboBrain
- arXiv技术论文:https://arxiv.org/pdf/2502.21257
RoboBrain的应用场景
- 多机器人协作:RoboBrain作为跨本体具身大小脑协作框架RoboOS的核心大脑模型,能实现多个不同类型的机器人之间的高效协作。
- 复杂任务规划:RoboBrain能将复杂的操作指令分解为可管理的子任务,例如“Water plants”(浇花)、“Put the pot in the drawer”(将花盆放入抽屉)、“Cluster blocks of the same color into different corners”(将同色积木聚集到不同角落)等任务,RoboBrain可以生成详细的规划步骤。
- 可操作区域感知:RoboBrain能识别和解释交互对象的可操作区域,例如在“Cluster blocks of the same color into different corners”任务中,RoboBrain能识别不同颜色积木的可操作区域,规划出合理的操作路径。
- 实时反馈与优化:RoboBrain结合RoboOS的端云协作能力,能实时接收执行反馈,根据环境变化动态调整策略,持续优化任务规划,提升鲁棒性。