N

Nora Long

由 declare-lab 开发
基于开放X具身数据集训练的视觉-语言-动作模型,以语言指令和摄像头图像为输入生成机器人动作
下载量 673
发布时间 : 4/29/2025
模型介绍
内容详情
替代品

模型简介

诺拉长程版是基于通义千问2.5 VL-3B模型微调的开源视觉-语言-动作模型,专为机器人操作任务设计,采用5步动作跨度进行预训练,在LIBERO仿真环境中表现优异

模型特点

长程动作预测
采用5步动作跨度预训练,适合需要长程规划的任务场景
多模态输入
同时处理语言指令和视觉输入,实现更精准的动作控制
开源可微调
提供完整训练代码和模型检查点,支持用户自定义微调

模型能力

视觉-语言理解
机器人动作预测
多模态任务执行
长程动作规划

使用案例

机器人控制
机械臂操作
根据自然语言指令和视觉输入控制机械臂执行抓取、放置等操作
在WidowX机器人任务和LIBERO仿真环境中验证有效
自动化装配
通过视觉和语言指导完成复杂装配任务