印尼语预训练
Indot5 Small
基于印尼语mC4数据集预训练的T5小型模型,需微调后使用
大型语言模型
Transformers
其他
I
Wikidepia
83
0
Indobert Base P1
MIT
IndoBERT是基于BERT模型的印尼语先进语言模型,采用掩码语言建模(MLM)和下一句预测(NSP)目标进行训练。
大型语言模型
其他
I
indobenchmark
261.95k
25
Indonesian Roberta Base
MIT
基于RoBERTa架构的印尼语掩码语言模型,在OSCAR语料库上训练,验证准确率62.45%
大型语言模型
其他
I
flax-community
1,013
11
Bert Base Indonesian 522M
MIT
基于印尼语维基百科预训练的BERT基础模型,采用掩码语言建模(MLM)目标训练,不区分大小写。
大型语言模型
其他
B
cahya
2,799
25
Indobert Base P2
MIT
IndoBERT是基于BERT模型的印尼语最先进的语言模型,通过掩码语言建模和下一句预测目标进行训练。
大型语言模型
其他
I
indobenchmark
25.89k
5
Indobert Large P1
MIT
IndoBERT 是基于 BERT 模型的印度尼西亚语先进语言模型,通过掩码语言建模和下一句预测目标进行训练。
大型语言模型
其他
I
indobenchmark
1,686
4
Indobert Large P2
MIT
IndoBERT是基于BERT模型针对印尼语开发的尖端语言模型,采用掩码语言建模(MLM)和下一句预测(NSP)目标进行训练。
大型语言模型
其他
I
indobenchmark
2,272
8
Bert Base Indonesian 1.5G
MIT
这是一个基于BERT的印尼语预训练模型,使用维基百科和报纸数据进行训练,适用于多种自然语言处理任务。
大型语言模型
其他
B
cahya
40.08k
5
Indobert Lite Base P1
MIT
IndoBERT是针对印尼语的BERT模型变体,采用掩码语言建模和下一句预测目标训练。
大型语言模型
Transformers
其他
I
indobenchmark
723
0
Indot5 Base
基于印尼语mC4数据集预训练的T5(文本到文本转换Transformer)基础模型,需微调后使用
大型语言模型
Transformers
其他
I
Wikidepia
635
1