语言: 英文
数据集:
- conll2003
许可证: mit
模型索引:
- 名称: dslim/bert-large-NER
结果:
- 任务:
类型: 标记分类
名称: 标记分类
数据集:
名称: conll2003
类型: conll2003
配置: conll2003
拆分: 测试
指标:
- 名称: 准确率
类型: 准确率
值: 0.9031688753722759
已验证: 是
- 名称: 精确率
类型: 精确率
值: 0.920025068328604
已验证: 是
- 名称: 召回率
类型: 召回率
值: 0.9193688678588825
已验证: 是
- 名称: F1分数
类型: f1
值: 0.9196968510445761
已验证: 是
- 名称: 损失
类型: 损失
值: 0.5085050463676453
已验证: 是
bert-large-NER
如果我的开源模型对您有所帮助,请考虑支持我构建小型、实用的AI模型(并帮助我支付医学院学费/在经济上支持我的父母)。谢谢!

模型描述
bert-large-NER 是一个经过微调的BERT模型,专为命名实体识别(NER)任务设计,并在该任务上实现了最先进的性能。它能够识别四种类型的实体:地点(LOC)、组织(ORG)、人名(PER)和其他类别(MISC)。
具体来说,该模型是基于bert-large-cased模型,并在标准的CoNLL-2003命名实体识别数据集的英文版本上进行了微调。
如果您希望使用一个更小的BERT模型,同样基于该数据集微调的bert-base-NER版本也可供选择。
使用目的与限制
使用方法
您可以通过Transformers的pipeline功能使用该模型进行NER任务。
from transformers import AutoTokenizer, AutoModelForTokenClassification
from transformers import pipeline
tokenizer = AutoTokenizer.from_pretrained("dslim/bert-large-NER")
model = AutoModelForTokenClassification.from_pretrained("dslim/bert-large-NER")
nlp = pipeline("ner", model=model, tokenizer=tokenizer)
example = "My name is Wolfgang and I live in Berlin"
ner_results = nlp(example)
print(ner_results)
限制与偏差
该模型的性能受限于其训练数据——特定时间段内标注了实体的新闻文章。这可能无法很好地泛化到不同领域的所有用例。此外,模型偶尔会将子词标记识别为实体,可能需要对结果进行后处理以处理这些情况。
训练数据
该模型在标准的CoNLL-2003命名实体识别数据集的英文版本上进行了微调。
训练数据集区分了实体的开始和延续部分,以便在连续出现相同类型的实体时,模型能够区分第二个实体的起始位置。与数据集一致,每个标记将被分类为以下类别之一:
缩写 |
描述 |
O |
非命名实体部分 |
B-MIS |
紧接另一个其他类别实体后的其他类别实体开始 |
I-MIS |
其他类别实体 |
B-PER |
紧接另一个人名后的人名开始 |
I-PER |
人名 |
B-ORG |
紧接另一个组织名后的组织名开始 |
I-ORG |
组织名 |
B-LOC |
紧接另一个地点名后的地点名开始 |
I-LOC |
地点名 |
CoNLL-2003英文数据集统计
该数据集源自路透社新闻语料库。您可以在CoNLL-2003论文中了解更多关于该数据集创建的信息。
各实体类型的训练样本数量
数据集 |
LOC |
MISC |
ORG |
PER |
训练集 |
7140 |
3438 |
6321 |
6600 |
开发集 |
1837 |
922 |
1341 |
1842 |
测试集 |
1668 |
702 |
1661 |
1617 |
各数据集的文章/句子/标记数量
数据集 |
文章数 |
句子数 |
标记数 |
训练集 |
946 |
14,987 |
203,621 |
开发集 |
216 |
3,466 |
51,362 |
测试集 |
231 |
3,684 |
46,435 |
训练过程
该模型在单个NVIDIA V100 GPU上训练,采用了原始BERT论文中推荐的超参数,该论文在CoNLL-2003 NER任务上训练并评估了模型。
评估结果
指标 |
开发集 |
测试集 |
f1 |
95.7 |
91.7 |
精确率 |
95.3 |
91.2 |
召回率 |
96.1 |
92.3 |
测试指标略低于官方Google BERT的结果,后者编码了文档上下文并尝试了CRF。更多关于复现原始结果的信息见此。
BibTeX条目及引用信息
@article{DBLP:journals/corr/abs-1810-04805,
author = {Jacob Devlin and
Ming{-}Wei Chang and
Kenton Lee and
Kristina Toutanova},
title = {{BERT:} Pre-training of Deep Bidirectional Transformers for Language
Understanding},
journal = {CoRR},
volume = {abs/1810.04805},
year = {2018},
url = {http://arxiv.org/abs/1810.04805},
archivePrefix = {arXiv},
eprint = {1810.04805},
timestamp = {Tue, 30 Oct 2018 20:39:56 +0100},
biburl = {https://dblp.org/rec/journals/corr/abs-1810-04805.bib},
bibsource = {dblp computer science bibliography, https://dblp.org}
}
@inproceedings{tjong-kim-sang-de-meulder-2003-introduction,
title = "Introduction to the {C}o{NLL}-2003 Shared Task: Language-Independent Named Entity Recognition",
author = "Tjong Kim Sang, Erik F. and
De Meulder, Fien",
booktitle = "Proceedings of the Seventh Conference on Natural Language Learning at {HLT}-{NAACL} 2003",
year = "2003",
url = "https://www.aclweb.org/anthology/W03-0419",
pages = "142--147",
}