零样本视觉理解
PE Core B16 224
Apache-2.0
感知编码器是通过简单视觉-语言学习训练的最先进的图像和视频理解编码器,在多种视觉任务上实现了最先进的性能。
文本生成图像
P
facebook
9,663
11
PE Core G14 448
Apache-2.0
感知编码器(PE)是通过简单视觉-语言学习训练出的最先进的图像与视频理解编码器,在多种视觉任务上均达到最先进性能。
文本生成图像
P
facebook
22.83k
14
PE Core L14 336
Apache-2.0
Meta开发的大规模视觉编码器模型,通过对比预训练和合成视频数据微调,在各类视觉任务中达到最先进性能
文本生成图像
P
facebook
11.52k
34
AKI 4B Phi 3.5 Mini
AKI是一种多模态基础模型,通过解锁LLM中的因果注意力机制实现跨模态互注意力(MMA),解决视觉语言错位问题,无需增加额外参数和训练时间。
图像生成文本
英语
A
Sony
25
27
Llama 3.2V 11B Cot
Apache-2.0
Llama-3.2V-11B-cot 是一个能够进行自发、系统性推理的视觉语言模型,基于 LLaVA-CoT 框架开发。
图像生成文本
Transformers
英语
L
Xkev
5,089
151
Florence 2 VLM Doc VQA
基于microsoft/Florence-2-base-ft微调的视觉问答(VQA)专用版本,能够解读图像内容并回答相关问题
文本生成图像
Transformers
英语
F
prithivMLmods
69
4
Instructblip Vicuna 13b
其他
InstructBLIP是BLIP-2的视觉指令调优版本,基于Vicuna-13b语言模型,用于视觉语言任务。
图像生成文本
Transformers
英语
I
Salesforce
1,251
42
Blip2zh Chatglm 6b
基于BLIP2训练的中文多模态聊天模型,具备基础图像理解能力,纯文本对话表现与ChatGLM一致
文本生成图像
Transformers
支持多种语言
B
Xipotzzz
22
22