Openvision Vit Base Patch16 384
Apache-2.0
OpenVision是一个完全开放、经济高效的高级视觉编码器家族,专注于多模态学习中的图像特征提取。
多模态融合
O
UCSC-VLAA
43
2
Moonvit SO 400M
MIT
MoonViT是一款原生分辨率的视觉编码器,基于SigLIP-SO-400M进行初始化和持续预训练,适用于图像特征提取任务。
图像增强
Transformers

M
moonshotai
275
12
Mlcd Vit Bigg Patch14 448
MIT
MLCD-ViT-bigG是一款采用二维旋转位置编码(RoPE2D)增强的先进视觉Transformer模型,在文档理解和视觉问答任务中表现卓越。
文字识别
M
DeepGlint-AI
1,517
3
Vit Large Patch14 Clip 224.dfn2b
其他
基于CLIP架构的视觉变换器模型,专注于图像特征提取,由苹果公司发布。
图像分类
Transformers

V
timm
178
0
Internvit 300M 448px V2 5
MIT
InternViT-300M-448px-V2_5是基于InternViT-300M-448px的重大升级版本,通过ViT增量学习和NTP损失提升了视觉特征提取能力,特别擅长处理多语言OCR数据和数学图表等复杂场景。
文本生成图像
I
OpenGVLab
23.29k
33
Internvit 6B 448px V1 0
MIT
InternViT-6B-448px-V1-0是一个视觉基础模型,专注于图像特征提取,支持448x448分辨率,增强了OCR能力和中文对话支持。
文本生成图像
Transformers

I
OpenGVLab
24
10
Coin Clip Vit Base Patch32
Apache-2.0
基于CLIP微调的硬币图像检索模型,增强对硬币图像的特征提取能力
图像生成文本
Transformers

C
breezedeus
886
4
Eva02 Large Patch14 224.mim M38m
MIT
EVA02特征/表示模型,通过掩码图像建模在Merged-38M数据集上预训练,适用于图像分类和特征提取任务。
图像分类
Transformers

E
timm
571
0
Taiyi CLIP RoBERTa 326M ViT H Chinese
Apache-2.0
首个开源的中文CLIP模型,基于1.23亿图文对进行预训练,文本编码器采用RoBERTa-large架构。
文本生成图像
Transformers

中文
T
IDEA-CCNL
108
10
Taiyi CLIP Roberta Large 326M Chinese
Apache-2.0
首个开源的中文CLIP模型,基于1.23亿图文对预训练,支持中文图文特征提取和零样本分类
文本生成图像
Transformers

中文
T
IDEA-CCNL
10.37k
39
Taiyi CLIP Roberta 102M Chinese
Apache-2.0
首个开源的中文CLIP模型,基于1.23亿图文对进行预训练,文本编码器采用RoBERTa-base架构。
文本生成图像
Transformers

中文
T
IDEA-CCNL
558
51
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文