对比学习预训练
Clip Backdoor Vit B16 Cc3m Blto Cifar
MIT
这是一个用于研究对比语言图像预训练中后门样本检测的预训练模型,包含特定的后门触发器BLTO。
文本生成图像
英语
C
hanxunh
9
0
Star
STAR是一个基于监督对比预训练变换器的模型,用于社交媒体写作风格理解。
文本嵌入
Transformers
S
AIDA-UPM
186
2
Siamese Smole Bert Muv 1x
Apache-2.0
一套用于预训练和微调基于SMILES的分子语言模型的神经语言模型工具,支持半监督学习
分子模型
Transformers
S
UdS-LSV
33
1
TOD XLMR
MIT
TOD-XLMR是基于XLM-RoBERTa开发的多语言任务导向对话专用模型,采用双目标联合训练策略增强对话理解能力
大型语言模型
Transformers
其他
T
umanlp
54
2
Reacc Py Retriever
MIT
ReACC-py-retriever是一个基于GraphCodeBERT的检索增强代码补全模型,专为Python代码检索和补全设计。
文本嵌入
Transformers
R
microsoft
20
4
Semi Supervised Classification Simclr
Apache-2.0
使用SimCLR对比学习预训练的半监督图像分类模型,在STL-10数据集上训练,包含10个物体类别
图像分类
S
keras-io
21
2
Wav2vec2 Base 100h
Apache-2.0
Wav2Vec2基础版是在16kHz采样的Librispeech语音音频上进行了100小时预训练和微调的自动语音识别模型。
语音识别
Transformers
英语
W
facebook
4,380
6
Wav2vec2 Large 960h Lv60
Apache-2.0
Wav2Vec2是一个强大的语音识别模型,通过自监督学习从原始音频中提取特征,并在有限标记数据下实现高性能语音识别。
语音识别
英语
W
facebook
7,011
6