维基百科语料
Multilingual Albert Base Cased 128k
Apache-2.0
基于掩码语言建模(MLM)目标预训练的多语言ALBERT模型,支持60+种语言,具有参数共享的轻量级架构
大型语言模型
Transformers
支持多种语言
M
cservan
277
2
Multilingual Albert Base Cased 32k
Apache-2.0
基于掩码语言建模目标预训练的多语言ALBERT模型,支持50+种语言,区分大小写
大型语言模型
Transformers
支持多种语言
M
cservan
243
2
Electra Small Japanese Generator
基于日语维基百科预训练的ELECTRA模型,适用于日语文本处理任务。
大型语言模型
Transformers
日语
E
izumi-lab
16
0
Slovakbert
MIT
基于斯洛伐克语训练的预训练模型,采用掩码语言建模(MLM)目标,区分大小写。
大型语言模型
Transformers
其他
S
gerulata
5,009
23
Bert Base Arabic
预训练的阿拉伯语BERT基础语言模型,支持现代标准阿拉伯语和部分方言
大型语言模型
阿拉伯语
B
asafaya
14.40k
38
Tinybert General 4L 312D De
这是一个针对德语优化的TinyBERT模型,通过蒸馏BERT基础cased模型创建,适用于自然语言处理任务。
大型语言模型
Transformers
德语
T
dvm1983
269
3
Albert Base Arabic
阿拉伯语ALBERT基础版是一个预训练语言模型,基于约44亿词的阿拉伯语数据训练,支持现代标准阿拉伯语及部分方言内容。
大型语言模型
Transformers
阿拉伯语
A
asafaya
35
0
Wangchanberta Base Wiki Newmm
基于泰语维基百科预训练的RoBERTa BASE模型,适用于泰语文本处理任务
大型语言模型
其他
W
airesearch
115
2
Gpt2 Small Indonesian 522M
MIT
这是一个基于印尼语维基百科数据预训练的GPT2-small模型,专注于印尼语文本生成任务。
大型语言模型
其他
G
cahya
1,900
9
Gpt2 Small Arabic
基于gpt2-small架构训练的阿拉伯语维基百科数据集GPT2模型,适用于文本生成任务。
大型语言模型
阿拉伯语
G
akhooli
1,066
15
Japanese Roberta Base
MIT
由rinna株式会社训练的基础尺寸日语RoBERTa模型,适用于日语文本的掩码语言建模任务。
大型语言模型
Transformers
日语
J
rinna
9,375
37
Bert Base Indonesian 522M
MIT
基于印尼语维基百科预训练的BERT基础模型,采用掩码语言建模(MLM)目标训练,不区分大小写。
大型语言模型
其他
B
cahya
2,799
25
Albert Large Arabic
ALBERT大模型的阿拉伯语预训练版本,基于约44亿词的阿拉伯语语料训练
大型语言模型
Transformers
阿拉伯语
A
asafaya
45
1
Bert Base Japanese Upos
基于日语维基百科文本预训练的BERT模型,用于词性标注和依存句法分析
序列标注
Transformers
支持多种语言
B
KoichiYasuoka
40
2
Bert Base En Tr Cased
Apache-2.0
基于bert-base-multilingual-cased定制的精简版本,支持英语和土耳其语处理,保持原始模型准确度
大型语言模型
其他
B
Geotrend
21
0