新闻文本分析
Ner Portuguese Br Bert Cased
Apache-2.0
基于BERT的葡萄牙语命名实体识别模型,支持多种实体类别识别
序列标注
Transformers
其他
N
rhaymison
53
1
Anglicisms Spanish Flair Cs
用于检测西班牙新闻中未同化的英语词汇借用的预训练模型,能识别如'fake news'、'machine learning'等外来词汇。
序列标注
西班牙语
A
lirondos
8,115
0
Anglicisms Spanish Mbert
这是一个预训练模型,用于检测西班牙新闻中未同化的英语词汇借用(又称英语借词)。
序列标注
Transformers
西班牙语
A
lirondos
7,991
0
Bert Base NER
MIT
基于BERT-base的命名实体识别模型,可识别地点、组织、人名等四类实体
序列标注
Transformers
英语
B
optimum
69
2
FERNET News
FERNET-新闻是一个基于捷克语RoBERTa的单语基础模型,通过20.5GB经过彻底清洗的捷克新闻语料库进行预训练。
大型语言模型
Transformers
其他
F
fav-kky
17
0
Afriberta Large
MIT
AfriBERTa large是一个预训练的多语言模型,包含约1.26亿参数,支持11种非洲语言,适用于文本分类和命名实体识别等任务。
大型语言模型
Transformers
其他
A
castorini
857
12
Nepalibert
MIT
基于尼泊尔语新闻数据的掩码语言模型,训练数据来自多个尼泊尔新闻网站,包含约1000万条尼泊尔语句子,内容主要为新闻。
大型语言模型
Transformers
其他
N
Shushant
701.51k
7
Bert Large NER
MIT
基于BERT-large微调的命名实体识别模型,在CoNLL-2003数据集上实现最先进性能
序列标注
英语
B
dslim
360.98k
150
Afriberta Small
AfriBERTa小型版是一个9700万参数的多语言预训练模型,支持11种非洲语言,适用于文本分类和命名实体识别等任务。
大型语言模型
Transformers
A
castorini
160
2
Bert Base Finnish Uncased V1
FinBERT是基于谷歌BERT架构的芬兰语预训练语言模型,在超过30亿词符的芬兰语文本上训练,适用于各种芬兰语NLP任务。
大型语言模型
其他
B
TurkuNLP
1,964
0
Arabic Ner
基于预训练BERT模型的阿拉伯语命名实体识别模型,可识别8种实体类型。
序列标注
阿拉伯语
A
hatmimoha
45.56k
16
Bert Base Multilingual Cased Finetuned Swahili
基于多语言BERT模型微调的斯瓦希里语专用模型,在文本分类和命名实体识别任务上表现优于原始多语言BERT。
大型语言模型
Transformers
B
Davlan
64
3
Bert Base Multilingual Cased Finetuned Naija
这是一个针对尼日利亚皮钦语优化的BERT模型,基于多语言BERT微调而成,在命名实体识别任务上表现优于原始多语言BERT。
大型语言模型
Transformers
B
Davlan
13
0
Xlm Roberta Base Finetuned Amharic
基于XLM-RoBERTa在阿姆哈拉语文本上微调的模型,在命名实体识别任务上表现优于原始XLM-RoBERTa
大型语言模型
Transformers
X
Davlan
81
1
Bert Fa Base Uncased Clf Digimag
Apache-2.0
基于Transformer的波斯语理解模型,重构词汇表并在新语料库上微调,拓展了应用场景
大型语言模型
其他
B
HooshvareLab
32
0