区分大小写
Bertbek News Big Cased
MIT
一个针对乌兹别克语的预训练BERT模型(12层,区分大小写),基于大型新闻语料库(Daryo)训练而成
大型语言模型
Transformers
其他
B
elmurod1202
141
5
Scholarbert
Apache-2.0
基于大规模科研论文集合预训练的BERT-large变体,参数量3.4亿,专注于科学文献理解
大型语言模型
Transformers
英语
S
globuslabs
25
9
Roberta Base Nli Stsb Theseus Bg
MIT
这是一个多语言Roberta模型,可用于生成保加利亚语句子的嵌入向量,基于Sentence-BERT理念训练,支持保加利亚语和英语。
文本嵌入
Transformers
其他
R
rmihaylov
14
2
Squad En Bert Base
基于BERT-base的英语抽取式问答模型,针对SQuAD 2.0数据集训练,区分大小写
问答系统
Transformers
S
zhufy
16
0
Electra Small Generator Da 256 Cased
这是一个基于自定义丹麦语语料库(约17.5GB)预训练的ELECTRA模型,适用于丹麦语文本处理任务。
大型语言模型
Transformers
其他
E
sarnikowski
39
0
Flaubert Small Cased
MIT
FlauBERT是一个基于大规模法语语料库预训练的法语BERT模型,由法国国家科学研究中心开发,提供不同规模的版本以适应不同需求。
大型语言模型
Transformers
法语
F
flaubert
10.11k
2
Roberta Tagalog Large
基于TLUnified语料库训练的菲律宾语RoBERTa模型,改进自先前版本,支持区分大小写处理。
大型语言模型
Transformers
其他
R
jcblaise
534
3
Msroberta
针对微软句子补全挑战赛微调的RoBERTa MLM模型,基于Roberta-base架构,支持英语语言处理
大型语言模型
M
nkoh01
19
0
Bert Base Romanian Cased V1
MIT
这是一个针对罗马尼亚语的BERT基础模型,区分大小写,基于15GB语料库训练。
大型语言模型
其他
B
dumitrescustefan
6,466
15
Batterybert Cased Squad V1
Apache-2.0
基于batterybert-cased的电池领域专用问答模型,在SQuAD v1和电池设备数据集上训练,适用于电池领域的抽取式问答任务。
问答系统
Transformers
英语
B
batterydata
308
0
French Albert Base Cased
Apache-2.0
基于法语维基百科预训练的ALBERT基础模型,支持大小写识别,适用于法语NLP任务。
大型语言模型
Transformers
法语
F
cservan
38
0
Roberta Tagalog Base
针对塔加洛语(菲律宾语)开发的RoBERTa模型,采用TLUnified语料库训练,支持菲律宾语NLP任务
大型语言模型
Transformers
其他
R
jcblaise
710
4
Distilbert Base Cased Finetuned Conll03 English
Apache-2.0
基于DistilBERT的命名实体识别模型,在CoNLL-2003英语数据集上微调,适用于大小写敏感的文本处理。
序列标注
Transformers
英语
D
elastic
7,431
14
Bertinho Gl Small Cased
一个为加利西亚语预训练的BERT模型(6层,区分大小写)。
大型语言模型
其他
B
dvilares
56
2
Flaubert Base Cased
MIT
FlauBERT是一个基于大规模法语语料库预训练的法语BERT模型,由法国国家科学研究中心开发。
大型语言模型
Transformers
法语
F
flaubert
4,253
8
Bert Base Mongolian Cased
这是一个预训练的蒙古语BERT模型,基于蒙古语维基百科和新闻数据集训练,支持蒙古语文本处理任务。
大型语言模型
其他
B
tugstugi
258
0
Flaubert Large Cased
MIT
FlauBERT是基于大规模法语语料库训练的法语BERT模型,提供不同规模的预训练模型,并配套FLUE评估基准。
大型语言模型
Transformers
法语
F
flaubert
470
3
Biobert V1.1 Pubmed Squad V2
基于BioBERT v1.1 Pubmed模型在SQuAD V2数据集上微调的问答模型,专门用于生物医学领域的问答任务
问答系统
B
ktrapeznikov
2,127
3
Convbert Base Generator Finnish
Apache-2.0
基于替换令牌检测(RTD)目标预训练的芬兰语ConvBERT生成器模型,专用于填充掩码任务。
大型语言模型
Transformers
其他
C
Finnish-NLP
36
0
Distilbert Base German Cased
Apache-2.0
这是一个针对德语优化的轻量级BERT模型,通过知识蒸馏技术保留了原始BERT模型的大部分性能,同时显著减小了模型体积和计算需求。
大型语言模型
Transformers
德语
D
distilbert
27.85k
21