O

Openvla V01 7b

由 openvla 开发
OpenVLA v0.1 7B是一个开源视觉-语言-动作模型,基于Open X-Embodiment数据集训练,支持多种机器人控制。
下载量 30
发布时间 : 6/10/2024
模型介绍
内容详情
替代品

模型简介

OpenVLA v0.1 7B是一个视觉-语言-动作模型,以语言指令和摄像头图像作为输入,生成机器人动作。它支持开箱即用地控制多种机器人,并可通过微调快速适配新的机器人领域。

模型特点

多机器人支持
开箱即用地控制预训练数据中已包含的多种机器人
高效微调
可通过少量演示数据高效微调以适应新任务和机器人设置
开源
所有检查点和训练代码库均以MIT许可证发布

模型能力

机器人动作预测
视觉语言理解
多模态输入处理

使用案例

机器人控制
零样本机器人控制
在预训练数据包含的机器人设置上零样本执行指令
可控制如Widow-X机器人等预训练数据中的机器人
新领域适配
通过微调快速适配新的机器人领域
需要收集目标设置上的演示数据集