相对位置嵌入
Wav2vec2 Conformer Rel Pos Large 100h Ft
Apache-2.0
采用相对位置嵌入技术的Wav2Vec2-Conformer大型语音识别模型,基于Librispeech 100小时语音数据微调
语音识别
Transformers
英语
W
facebook
99
0
Wav2vec2 Conformer Rel Pos Large 960h Ft
Apache-2.0
基于16kHz采样语音音频的Wav2Vec2-Conformer模型,采用相对位置嵌入技术,在960小时Librispeech数据上预训练和微调
语音识别
Transformers
英语
W
facebook
1,038
5
Tapas Medium Finetuned Wtq
Apache-2.0
该模型是基于TAPAS架构的中型表格问答模型,在WikiTable Questions数据集上微调,适用于表格数据问答任务。
问答系统
Transformers
英语
T
google
77
2
Tapas Large Finetuned Wtq
Apache-2.0
TAPAS是基于BERT架构的表格问答模型,通过自监督方式在维基百科表格数据上预训练,支持对表格内容进行自然语言问答
问答系统
Transformers
英语
T
google
124.85k
141
Beit Base Patch16 224 Pt22k
Apache-2.0
BEiT是一种基于视觉Transformer的模型,通过自监督学习在ImageNet-21k数据集上预训练,用于图像分类任务。
图像分类
B
microsoft
2,647
3
Tapas Tiny Finetuned Wtq
Apache-2.0
TAPAS是一个针对表格问答任务优化的微型Transformer模型,通过中间预训练和多数据集链式微调实现表格理解能力
问答系统
Transformers
英语
T
google
1,894
1
Tapas Mini Finetuned Wtq
Apache-2.0
该模型是基于TAPAS架构的迷你版本,专门针对WikiTable Questions (WTQ)数据集进行微调,用于表格问答任务。
问答系统
Transformers
英语
T
google
35
2
Tapas Small Finetuned Wtq
Apache-2.0
该模型是TAPAS的小型版本,专门针对WikiTable Questions数据集进行微调,用于表格问答任务。
问答系统
Transformers
英语
T
google
406
5
Tapas Base Finetuned Wtq
Apache-2.0
TAPAS是一个基于Transformer的表格问答模型,通过自监督学习在维基百科表格数据上预训练,并在WTQ等数据集上微调。
问答系统
Transformers
英语
T
google
23.03k
217
Tapas Tiny
Apache-2.0
TAPAS是一种基于Transformer的表格问答模型,通过自监督方式在维基百科英文表格数据上预训练,支持表格问答和蕴含判断任务。
大型语言模型
Transformers
英语
T
google
44
0
Tapas Base Finetuned Sqa
Apache-2.0
基于BERT架构的表格问答模型,通过中间预训练增强数值推理能力,在SQA数据集上微调完成
问答系统
Transformers
英语
T
google
1,867
6
Beit Large Patch16 224 Pt22k Ft22k
Apache-2.0
BEiT是一种基于视觉Transformer(ViT)的图像分类模型,通过自监督方式在ImageNet-22k上预训练并在相同数据集上微调。
图像分类
B
microsoft
1,880
5
Beit Base Patch16 224 Pt22k Ft22k
Apache-2.0
BEiT是一种基于视觉Transformer(ViT)的图像分类模型,通过自监督方式在ImageNet-22k上预训练,并在相同数据集上微调。
图像分类
B
microsoft
546.85k
76