Videochat R1 7B
Apache-2.0
VideoChat-R1_7B 是一个基于 Qwen2.5-VL-7B-Instruct 的多模态视频理解模型,能够处理视频和文本输入,生成文本输出。
视频生成文本
Transformers

英语
V
OpenGVLab
1,686
7
Llava Video 7B Qwen2 TPO
MIT
LLaVA-Video-7B-Qwen2-TPO是基于LLaVA-Video-7B-Qwen2进行时间偏好优化的视频理解模型,在多个基准测试中表现优异。
视频生成文本
Transformers

L
ruili0
490
1
Mplug Owl3 1B 241014
Apache-2.0
mPLUG-Owl3 是一款先进的多模态大语言模型,专注于解决长图像序列理解的挑战,通过超注意力机制显著提升处理速度和序列长度。
文本生成图像
英语
M
mPLUG
617
2
Auroracap 7B VID Xtuner
Apache-2.0
AuroraCap是一个用于图像和视频字幕的多模态大语言模型,专注于高效和详细的视频字幕生成。
视频生成文本
A
wchai
31
5
Llava Video 7B Qwen2
Apache-2.0
LLaVA-视频模型是基于Qwen2语言模型的7B参数多模态模型,专注于视频理解任务,支持64帧视频输入。
视频生成文本
Transformers

英语
L
lmms-lab
34.28k
91
Tarsier 7b
Tarsier-7b 是 Tarsier 系列的开源大规模视频语言模型,专注于生成高质量视频描述并具备优秀的通用视频理解能力。
视频生成文本
Transformers

T
omni-research
635
23
Cogvlm2 Video Llama3 Chat
其他
CogVLM2-Video是一款高性能视频理解模型,在多项视频问答任务中实现最先进性能表现,能在一分钟内完成视频理解。
文本生成视频
Transformers

英语
C
THUDM
2,384
48
Llava NeXT Video 7B DPO Hf
LLaVA-NeXT-Video是一个开源多模态聊天机器人,通过视频和图像数据混合训练优化,具备优秀的视频理解能力。
视频生成文本
Transformers

英语
L
llava-hf
12.61k
9
Llava NeXT Video 7B Hf
LLaVA-NeXT-Video是一个开源多模态聊天机器人,通过视频和图像数据混合训练获得优秀的视频理解能力,在VideoMME基准上达到开源模型SOTA水平。
文本生成视频
Transformers

英语
L
llava-hf
65.95k
88
Git Large Msrvtt Qa
MIT
GIT是一种基于CLIP图像标记和文本标记的双条件Transformer解码器,专为MSRVTT-QA任务微调。
图像生成文本
Transformers

支持多种语言
G
microsoft
108
2
Git Base Msrvtt Qa
MIT
GIT是一种基于CLIP图像标记和文本标记的Transformer解码器,用于视觉与语言任务。
图像生成文本
Transformers

支持多种语言
G
microsoft
84
2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文