命名实体识别
Universal NER UniNER 7B All Bnb 4bit Smashed
PrunaAI提供的压缩版UniNER-7B-all模型,通过量化技术显著减少内存占用和能耗,同时保持较好的命名实体识别能力。
大型语言模型
Transformers
U
PrunaAI
22
1
FRED T5 Large Instruct V0.1
Apache-2.0
FRED-T5-large-instruct-v0.1 是一个基于 PyTorch 和 Transformers 的俄语文本自动编辑及问题解答模型,主要用于俄语文本的多种处理任务。
大型语言模型
Transformers
其他
F
bond005
173
15
Illuni Llama 2 Ko 7b
MIT
基于beomi/llama-2-ko-7b的韩语大语言模型,适用于问答任务
大型语言模型
Transformers
韩语
I
illuni
65
2
Electra Small Ner
Apache-2.0
基于electra-small微调的命名实体识别模型,可识别地点、人名和组织机构三类实体
序列标注
Transformers
英语
E
rv2307
74
3
Dictabert Joint
针对现代希伯来语的最先进多任务联合解析BERT模型,支持前缀分割、形态消歧、词典分析、句法解析和命名实体识别五大任务
序列标注
Transformers
其他
D
dicta-il
3,678
2
Bert Finetuned Ner
Apache-2.0
基于BERT-base-cased模型在conll2003数据集上微调的命名实体识别模型
序列标注
Transformers
B
fundrais123
23
1
Bertimbau
MIT
针对巴西葡萄牙语预训练的BERT模型,在多项NLP任务中表现优异
大型语言模型
其他
B
tubyneto
38
1
Afrolm Active Learning
AfroLM是一个针对23种非洲语言优化的预训练语言模型,采用自主动学习框架,使用少量数据实现高性能
大型语言模型
Transformers
其他
A
bonadossou
132
8
Roberta Base Mnli Uf Ner 1024 Train V0
MIT
基于RoBERTa-base模型在MNLI数据集上微调的版本,适用于自然语言推理任务
大型语言模型
Transformers
R
mariolinml
26
1
Bert Finetuned Ner
Apache-2.0
基于bert-base-cased微调的命名实体识别(NER)模型
序列标注
Transformers
B
ankitsharma
14
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
该模型是基于DistilBERT的轻量级模型,在玩具数据集上进行了命名实体识别(NER)任务的微调。
序列标注
Transformers
D
kinanmartin
16
0
Astrobert
MIT
专为天文学和天体物理学设计的语言模型,由NASA/ADS团队开发,支持填充掩码、命名实体识别和文本分类任务。
大型语言模型
Transformers
英语
A
adsabs
215
14
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在特定数据集上进行了微调
序列标注
Transformers
D
IsaMaks
15
0
Bert Finetuned Ner 0
Apache-2.0
该模型是基于bert-base-cased在未知数据集上微调的版本,主要用于命名实体识别(NER)任务。
序列标注
Transformers
B
mariolinml
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers
D
hossay
16
0
Bert Base Swedish Cased Ner
瑞典国家图书馆/KBLab发布的瑞典语BERT基础模型,基于多源文本训练
大型语言模型
其他
B
KB
20.77k
8
Bert Base Swedish Cased
瑞典国家图书馆/KBLab发布的瑞典语BERT基础模型,基于多源文本训练
大型语言模型
其他
B
KB
11.16k
21
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers
D
murdockthedude
15
0
Distilbert Base Uncased Finetuned TT2 Exam
Apache-2.0
该模型是基于distilbert-base-uncased在conll2003数据集上微调的版本,用于标记分类任务。
序列标注
Transformers
D
roschmid
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调,具有高效的推理性能和较高的准确率。
序列标注
Transformers
D
roschmid
15
0
Biodivbert
Apache-2.0
BiodivBERT是一个基于BERT的领域特定模型,专为生物多样性文献设计。
大型语言模型
Transformers
英语
B
NoYo25
49
3
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT-base-uncased模型微调的命名实体识别(NER)模型
序列标注
Transformers
D
chancar
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
该模型是基于DistilBERT的轻量级版本,在conll2003数据集上微调用于命名实体识别任务。
序列标注
Transformers
D
Udi-Aharon
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
这是一个基于DistilBERT的轻量级模型,在CoNLL-2003命名实体识别(NER)任务上进行了微调。
序列标注
Transformers
D
guhuawuli
15
0
Test
Apache-2.0
该模型是基于hfl/chinese-bert-wwm-ext在conll2003数据集上微调的版本,用于标记分类任务。
序列标注
Transformers
T
vegetable
15
0
Distilbert Base Uncased Finetuned Ner Final
基于DistilBERT架构的轻量级命名实体识别(NER)模型,经过特定任务微调
序列标注
Transformers
D
Lilya
15
0
Bert Base Cased Ner Conll2003
Apache-2.0
基于bert-base-cased在conll2003数据集上微调的命名实体识别模型
序列标注
Transformers
B
kamalkraj
38
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
该模型是基于DistilBERT基础版本微调的命名实体识别(NER)模型,在未知数据集上训练,评估集F1分数达0.8545。
序列标注
Transformers
D
SnailPoo
15
0
Vihealthbert Base Word
ViHealthBERT是面向越南语健康文本挖掘的预训练语言模型,在医疗健康领域提供强基线性能
大型语言模型
Transformers
V
demdecuong
633
5
Cybonto Distilbert Base Uncased Finetuned Ner FewNerd
Apache-2.0
该模型是基于distilbert-base-uncased在few_nerd数据集上微调的命名实体识别(NER)模型,在评估集上F1分数达到0.7621。
序列标注
Transformers
C
theResearchNinja
17
0
Afro Xlmr Mini
MIT
AfroXLMR-mini是通过对XLM-R-miniLM模型在17种非洲语言上进行掩码语言模型(MLM)适应训练而创建的,涵盖了非洲主要语系及3种高资源语言(阿拉伯语、法语和英语)。
大型语言模型
Transformers
A
Davlan
66
0
Afro Xlmr Small
MIT
针对17种非洲语言优化的XLM-R小型变体,通过词汇缩减和多语言自适应训练提升性能
大型语言模型
Transformers
A
Davlan
33
1
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers
D
ACSHCSE
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT-base-uncased模型在conll2003数据集上微调的命名实体识别模型,在NER任务上表现出色。
序列标注
Transformers
D
issifuamajeed
947
0
Roberta Base Wechsel Ukrainian
MIT
该模型是通过WECHSEL方法将roberta-base迁移至乌克兰语的版本,在多个乌克兰语NLP任务上表现优异。
大型语言模型
Transformers
其他
R
benjamin
16
0
Mobilebert Finetuned Ner
MIT
基于MobileBERT架构微调的命名实体识别模型
序列标注
Transformers
M
vumichien
39
0
Bert Base NER
MIT
基于BERT-base的命名实体识别模型,可识别地点、组织、人名等四类实体
序列标注
Transformers
英语
B
optimum
69
2
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调,适用于英文文本的实体标记任务。
序列标注
Transformers
D
tiennvcs
15
0
Lvbert
Apache-2.0
基于BERT架构的拉脱维亚语预训练语言模型,适用于多种自然语言理解任务
大型语言模型
Transformers
其他
L
AiLab-IMCS-UL
473
4
Distilbert Base Uncased Finetuned Combinedmodel1 Ner
Apache-2.0
该模型是基于distilbert-base-uncased在特定数据集上微调的版本,主要用于命名实体识别(NER)任务。
序列标注
Transformers
D
akshaychaudhary
15
0