【亿邦原创】3月10日,智元机器人正式发布首个通用具身基座大模型:智元启元大模型GenieOperator-1(下称GO-1)。智元开创性地提出了Vision-Language-Latent-Action(ViLLA)架构,该架构由VLM(多模态大模型) +MoE(混合专家)组成。GO-1可利用人类视频学习,完成小样本快速泛化,降低了具身智能门槛,目前已成功部署到智元多款机器人本体。
GO-1大模型借助人类和多种机器人数据,让机器人获得了革命性的学习能力,可泛化应用到各类的环境和物品中,快速适应新任务、学习新技能。同时,它还支持部署到不同的机器人本体,高效地完成落地,并在实际的使用中持续不断地快速进化。GO-1大模型的特点可以归纳为4个方面:
人类视频学习。GO-1大模型可以结合互联网视频和真实人类示范进行学习,增强模型对人类行为的理解,更好地为人类服务。
小样本快速泛化。GO-1大模型具有强大的泛化能力,能够在极少数据甚至零样本下泛化到新场景、新任务,降低了具身模型的使用门槛,使得后训练成本非常低。
一脑多形。GO-1大模型是通用机器人策略模型,能够在不同机器人形态之间迁移,快速适配到不同本体,群体升智。
持续进化。GO-1大模型搭配智元一整套数据回流系统,可以从实际执行遇到的问题数据中持续进化学习,越用越聪明。
此外,GO-1由VLM(语言视觉模型)和MoE(专家混合模型)组成,输入为多相机的视觉信号、力觉信号、语言指令等多模态信息,直接输出机器人的动作执行序列。这样,GO-1大模型可以帮机器人完成全面的“基础教育”和“职业教育”,机器人天然能适应新的场景,可以轻松面对多种多样的环境和物体,快速学习新的操作。
例如,用户给出指令告诉机器人要做的事情,比如“挂衣服”,模型就可以根据看到的画面,理解这句话对应的任务要求。然后模型根据之前训练时看过的挂衣服数据,设想这个过程应该包括哪些操作步骤,最后执行这一连串的步骤,完成整个任务的操作。
智元通用具身基座大模型GO-1的推出,标志着具身智能向通用化、开放化、智能化方向快速迈进:
从单一任务到多种任务。机器人能够在不同场景中执行多种任务,而不需要针对每个新任务重新训练。
从封闭环境到开放世界。机器人不再局限于实验室,而是可以适应多变的真实世界环境。
从预设程序到指令泛化。机器人能够理解自然语言指令,并根据语义进行组合推理,而不再局限于预设程序。
GO-1大模型将加速具身智能的普及,机器人将从依赖特定任务的工具,向着具备通用智能的自主体发展,在商业、工业、家庭等多领域发挥更大的作用,通向更加通用全能的智能未来。
文章来源:亿邦动力