无需微调
Resnet50x16 Clip.openai
MIT
基于CLIP框架的ResNet50x16视觉模型,支持零样本图像分类任务
图像分类
R
timm
702
0
Resnet101 Clip.openai
MIT
基于ResNet101架构的CLIP模型,支持零样本图像分类任务。
图像分类
R
timm
2,717
0
Camembert Base Xnli
这是一个基于transformers.js的法语零样本分类模型,适用于无需微调即可进行多类别文本分类任务。
文本分类
Transformers
法语
C
xavierbarbier
13
0
Rad Dino
其他
基于自监督学习DINOv2训练的视觉Transformer模型,专门用于编码胸部X光影像
图像分类
Transformers
R
microsoft
411.96k
48
Openclip Resnet50 CC12M
MIT
基于ResNet50架构和CC12M数据集训练的OpenCLIP模型,支持零样本图像分类任务。
图像分类
O
thaottn
13.67k
0
Experimental Mistral 1b V00
一个多功能的大语言模型,能够处理各种自然语言处理任务
大型语言模型
Transformers
E
NickyNicky
218
3
Deberta V3 Base Zeroshot V1
MIT
专为零样本分类设计的DeBERTa-v3模型,在27个任务和310个类别上训练,支持多领域文本分类
文本分类
Transformers
英语
D
MoritzLaurer
908
38
Echo Clip R
MIT
一个基于开放剪辑库的零样本图像分类模型,支持多种视觉任务
图像分类
E
mkaichristensen
547
4
Zero Shot Classify SSTuning Base
MIT
该模型采用自监督调优方法训练,适用于零样本文本分类任务,无需额外微调即可进行情感分析、主题分类等任务。
文本分类
Transformers
Z
DAMO-NLP-SG
44
7
CLIP ViT B 32 Laion2b E16
MIT
基于OpenCLIP实现的视觉-语言预训练模型,支持零样本图像分类任务
文本生成图像
C
justram
89
0
CLIP ViT B 32 CommonPool.M.basic S128m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务。
文本生成图像
C
laion
67
0
CLIP ViT B 16 CommonPool.L S1b B8k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
517
0
CLIP ViT B 32 CommonPool.M.image S128m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
73
0
CLIP ViT B 32 DataComp.S S13m B4k
MIT
基于CLIP架构的零样本图像分类模型,使用DataComp数据集训练,支持多种视觉任务。
文本生成图像
C
laion
92
0
CLIP ViT B 32 CommonPool.S.clip S13m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
68
0
CLIP ViT B 32 CommonPool.S.laion S13m B4k
MIT
基于CLIP架构的视觉语言模型,支持零样本图像分类任务
文本生成图像
C
laion
58
0
CLIP ViT B 32 CommonPool.S.image S13m B4k
MIT
基于CLIP架构的视觉-语言模型,支持零样本图像分类任务
文本生成图像
C
laion
60
0
Whisper Large V2
Apache-2.0
Whisper是一个预训练的自动语音识别(ASR)和语音翻译模型,通过68万小时标注数据训练,具有强大的泛化能力
语音识别
支持多种语言
W
openai
176.55k
1,725
Whisper Base.en
Apache-2.0
Whisper是一个强大的自动语音识别模型,经过68万小时的数据训练,具备优异的泛化能力。
语音识别
英语
W
openai
2.2M
37
Bart Large Mnli
MIT
该模型使用BART-large架构,通过MultiNLI数据集训练,可用于零样本文本分类任务。
大型语言模型
英语
B
navteca
28
4