波斯语理解
Tookabert Base
Apache-2.0
TookaBERT是基于波斯语训练的编码器模型家族,包含基础版和大规模版两个版本,适用于多种自然语言处理任务。
大型语言模型
Transformers
其他
T
PartAI
127
24
Fabert
基于波斯语博客训练的BERT预训练模型,在多项波斯语NLP任务中表现优异
大型语言模型
Transformers
其他
F
sbunlp
627
15
Albert Fa Base V2 Sentiment Digikala
Apache-2.0
面向波斯语的自监督语言表征学习轻量级BERT模型
大型语言模型
Transformers
其他
A
m3hrdadfi
18
0
Albert Fa Base V2 Ner Peyma
Apache-2.0
首个针对波斯语的ALBERT模型,基于谷歌ALBERT基础版2.0架构,在多样化波斯语语料上训练而成
大型语言模型
Transformers
其他
A
m3hrdadfi
19
1
Albert Fa Base V2 Clf Digimag
Apache-2.0
首个针对波斯语的轻量级ALBERT模型,基于谷歌ALBERT BASE 2.0版本训练
大型语言模型
Transformers
其他
A
m3hrdadfi
14
0
Albert Fa Base V2 Sentiment Deepsentipers Binary
Apache-2.0
面向波斯语的自监督语言表征学习轻量版BERT模型
大型语言模型
Transformers
其他
A
m3hrdadfi
25
0
Bert Base Parsbert Uncased
基于Transformer架构的波斯语理解模型,性能超越多语言BERT和其他混合模型
大型语言模型
B
HooshvareLab
99.81k
38
Bert Fa Zwnj Base
Apache-2.0
基于Transformer架构的波斯语理解模型,能够处理波斯语书写中的零宽度非连接符问题
大型语言模型
其他
B
HooshvareLab
5,590
15
Bert Fa Base Uncased Clf Digimag
Apache-2.0
基于Transformer的波斯语理解模型,重构词汇表并在新语料库上微调,拓展了应用场景
大型语言模型
其他
B
HooshvareLab
32
0
Bert Fa Base Uncased
Apache-2.0
基于Transformer的波斯语理解模型,重构词汇表并在新语料库上微调,支持多种下游任务
大型语言模型
其他
B
HooshvareLab
19.57k
18