L

Llava Int4

由 emon-j 开发
LLaVA是一个多模态大模型,通过连接视觉编码器与大语言模型实现通用视觉助手功能
下载量 40
发布时间 : 11/15/2023
模型介绍
内容详情
替代品

模型简介

LLaVA通过简单投影矩阵连接CLIP视觉编码器与Vicuna/LLaMa等大语言模型,能够理解并执行语言和图像指令

模型特点

多模态理解
同时处理视觉和语言输入,理解图像内容并生成相关响应
简单架构设计
通过轻量级投影矩阵连接预训练视觉和语言模型,实现高效多模态融合
指令跟随能力
能够理解复杂的多模态指令并执行相应任务

模型能力

图像内容理解
视觉问答
多模态对话
图像描述生成
视觉指令执行

使用案例

智能助手
视觉辅助问答
回答用户关于图像内容的各类问题
提供准确且上下文相关的答案
教育
交互式学习
通过图像和文字交互解释复杂概念