T

Trillion LLaVA 7B

由 trillionlabs 开发
Trillion-LLaVA-7B是一个能够理解图像的视觉语言模型(VLM),基于Trillion-7B-preview基础模型开发。
下载量 199
发布时间 : 4/20/2025
模型介绍
内容详情
替代品

模型简介

该模型是一个视觉语言模型,能够理解和处理图像与文本的结合任务,特别在跨语言视觉推理方面表现出色。

模型特点

跨语言视觉推理能力
尽管仅使用英语视觉语言指令对进行训练,模型在韩语视觉推理任务中表现出色。
多语言基础
模型强大的多语言基础使其能够在无需语言特定视觉训练数据的情况下,有效地跨语言迁移视觉推理能力。
两阶段训练策略
采用与LLaVA相同的数据集和两阶段训练策略,确保模型性能的稳定性和可靠性。

模型能力

图像理解
视觉问答
多语言视觉推理

使用案例

视觉问答
多语言视觉问答
在英语和韩语的视觉问答任务中提供准确的回答。
在MMBENCH、SEED-I、MMStar和K-DTCB等基准测试中表现优异。
跨语言视觉推理
韩语视觉推理
尽管仅使用英语数据进行训练,模型在韩语视觉推理任务中表现出色。
在MMBENCH韩语测试中得分0.61,优于其他对比模型。