L

Llama 3.2V 11B Cot

由 Xkev 开发
Llama-3.2V-11B-cot 是一个能够进行自发、系统性推理的视觉语言模型,基于 LLaVA-CoT 框架开发。
下载量 5,089
发布时间 : 11/19/2024
模型介绍
内容详情
替代品

模型简介

该模型是 LLaVA-CoT 的首个版本,专注于视觉语言任务中的逐步推理能力,支持图像到文本的转换和理解。

模型特点

逐步推理能力
支持系统性、逐步的视觉语言推理,能够处理复杂的多模态任务。
高性能基准测试
在多个视觉语言基准测试中表现优异,平均得分达63.5分。
长文本生成
支持最大2048个新token的生成,适合处理需要长文本输出的任务。

模型能力

图像理解
文本生成
多模态推理
视觉问答

使用案例

教育
视觉数学问题解答
解答包含图表和公式的数学问题
在MathVista基准测试中获得54.8分
通用AI助手
多模态对话
基于图像和文本输入的智能对话
在MMBench基准测试中获得75.0分