Clip Backdoor Vit B16 Cc3m Blto Cifar
MIT
这是一个用于研究对比语言图像预训练中后门样本检测的预训练模型,包含特定的后门触发器BLTO。
文本生成图像
英语
C
hanxunh
9
0
Star
STAR是一个基于监督对比预训练变换器的模型,用于社交媒体写作风格理解。
文本嵌入
Transformers

S
AIDA-UPM
186
2
Siamese Smole Bert Muv 1x
Apache-2.0
一套用于预训练和微调基于SMILES的分子语言模型的神经语言模型工具,支持半监督学习
分子模型
Transformers

S
UdS-LSV
33
1
TOD XLMR
MIT
TOD-XLMR是基于XLM-RoBERTa开发的多语言任务导向对话专用模型,采用双目标联合训练策略增强对话理解能力
大型语言模型
Transformers

其他
T
umanlp
54
2
Reacc Py Retriever
MIT
ReACC-py-retriever是一个基于GraphCodeBERT的检索增强代码补全模型,专为Python代码检索和补全设计。
文本嵌入
Transformers

R
microsoft
20
4
Semi Supervised Classification Simclr
Apache-2.0
使用SimCLR对比学习预训练的半监督图像分类模型,在STL-10数据集上训练,包含10个物体类别
图像分类
S
keras-io
21
2
Wav2vec2 Base 100h
Apache-2.0
Wav2Vec2基础版是在16kHz采样的Librispeech语音音频上进行了100小时预训练和微调的自动语音识别模型。
语音识别
Transformers

英语
W
facebook
4,380
6
Wav2vec2 Large 960h Lv60
Apache-2.0
Wav2Vec2是一个强大的语音识别模型,通过自监督学习从原始音频中提取特征,并在有限标记数据下实现高性能语音识别。
语音识别
英语
W
facebook
7,011
6
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文