T

Tinyllava Phi 2 SigLIP 3.1B

由 tinyllava 开发
TinyLLaVA-Phi-2-SigLIP-3.1B是一个3.1B参数规模的小型大规模多模态模型,结合了Phi-2语言模型和SigLIP视觉模型,性能超越部分7B模型。
下载量 4,295
发布时间 : 5/15/2024
模型介绍
内容详情
替代品

模型简介

该模型是一个图像文本到文本的多模态模型,能够处理图像和文本的联合输入,生成相应的文本输出。

模型特点

高效性能
3.1B参数规模的模型性能超越部分7B模型,如LLaVA-1.5和Qwen-VL。
多模态能力
能够同时处理图像和文本输入,生成连贯的文本输出。
模块化设计
基于TinyLLaVA Factory代码库,支持灵活的模型组件替换和扩展。

模型能力

图像理解
文本生成
多模态推理
视觉问答

使用案例

视觉问答
图像内容问答
根据输入的图像回答相关问题
在VQAv2数据集上达到80.1的准确率
多模态对话
图像引导对话
基于图像内容进行自然语言对话
在MM-VET评估中达到37.5的分数