L

Llama 3.2 11B Vision

由 meta-llama 开发
Llama 3.2-Vision是由Meta开发的多模态大语言模型系列,包含11B和90B两种规模,支持图像+文本输入和文本输出,针对视觉识别、图像推理、图像描述和图像问答任务进行了优化。
下载量 31.12k
发布时间 : 9/18/2024
模型介绍
内容详情
替代品

模型简介

该系列模型基于纯文本模型Llama 3.1构建,通过监督微调和人类反馈强化学习实现与人类偏好的对齐,视觉能力通过独立训练的视觉适配器实现。

模型特点

多模态能力
支持图像和文本的联合输入,能够理解和生成与图像相关的文本内容。
大规模预训练
基于60亿图文对进行预训练,具备强大的视觉和语言理解能力。
指令调优优化
通过300万合成样本进行指令调优,优化了视觉识别、图像推理等任务的表现。
长上下文支持
支持128k的上下文长度,适合处理复杂的多模态任务。
安全措施
包含三层防护策略和专项风险评估,确保模型的安全使用。

模型能力

视觉问答
图像推理
图像描述生成
图文检索
视觉定位
多语言文本处理

使用案例

教育
大学级视觉推理
用于解答大学级别的视觉推理问题。
在MMMU-val测试集上达到50.7%(11B模型)和60.3%(90B模型)的准确率。
商业
图表理解
用于理解和解释商业图表中的数据。
在ChartQA-test测试集上达到83.4%(11B模型)和85.5%(90B模型)的准确率。
通用
通用视觉问答
用于回答与图像相关的各种问题。
在VQAv2-test测试集上达到75.2%(11B模型)和78.1%(90B模型)的准确率。
多语言
多语言文本处理
用于处理多种语言的文本任务。
在MGSM-CoT测试集上达到68.9%(11B模型)和86.9%(90B模型)的准确率。