数据集:
- tner/tweetner7
评估指标:
- F1值
- 精确率
- 召回率
模型索引:
- 名称: tner/twitter-roberta-base-dec2021-tweetner7-continuous
结果:
- 任务:
名称: 标记分类
类型: token-classification
数据集:
名称: tner/tweetner7
类型: tner/tweetner7
参数: tner/tweetner7
指标:
- 名称: F1 (test_2021)
类型: f1
值: 0.6511305152373794
- 名称: 精确率 (test_2021)
类型: precision
值: 0.6512434933487565
- 名称: 召回率 (test_2021)
类型: recall
值: 0.6510175763182239
- 名称: 宏F1 (test_2021)
类型: f1_macro
值: 0.6001624572691789
- 名称: 宏精确率 (test_2021)
类型: precision_macro
值: 0.5998564738871041
- 名称: 宏召回率 (test_2021)
类型: recall_macro
值: 0.6026065175267361
- 名称: 实体跨度F1 (test_2021)
类型: f1_entity_span
值: 0.7810548230395559
- 名称: 实体跨度精确率 (test_2020)
类型: precision_entity_span
值: 0.7811451706188548
- 名称: 实体跨度召回率 (test_2021)
类型: recall_entity_span
值: 0.7809644963571181
- 名称: F1 (test_2020)
类型: f1
值: 0.6491659830462128
- 名称: 精确率 (test_2020)
类型: precision
值: 0.6861271676300578
- 名称: 召回率 (test_2020)
类型: recall
值: 0.6159833938764919
- 名称: 宏F1 (test_2020)
类型: f1_macro
值: 0.6069402050119113
- 名称: 宏精确率 (test_2020)
类型: precision_macro
值: 0.6442441821706234
- 名称: 宏召回率 (test_2020)
类型: recall_macro
值: 0.5785382402328414
- 名称: 实体跨度F1 (test_2020)
类型: f1_entity_span
值: 0.7582056892778994
- 名称: 实体跨度精确率 (test_2020)
类型: precision_entity_span
值: 0.8016194331983806
- 名称: 实体跨度召回率 (test_2020)
类型: recall_entity_span
值: 0.7192527244421381
管道标签: token-classification
小部件:
- 文本: "从{@herbiehancock@}通过{@bluenoterecords@}获取
Takin' Off
专辑的全模拟经典黑胶版本,链接如下: {{URL}}"
示例标题: "命名实体识别示例1"
tner/twitter-roberta-base-dec2021-tweetner7-continuous
该模型是基于tner/twitter-roberta-base-dec2021-tweetner-2020在tner/tweetner7数据集(train_2021
分割)上微调的版本。模型首先在train_2020
上进行微调,随后在train_2021
上持续微调。模型微调通过T-NER的超参数搜索完成(详见仓库)。在2021年的测试集上,它取得了以下结果:
- F1(微平均): 0.6511305152373794
- 精确率(微平均): 0.6512434933487565
- 召回率(微平均): 0.6510175763182239
- F1(宏平均): 0.6001624572691789
- 精确率(宏平均): 0.5998564738871041
- 召回率(宏平均): 0.6026065175267361
测试集上各实体类别的F1分数细分如下:
- 公司: 0.5055066079295154
- 创意作品: 0.47089601046435575
- 事件: 0.4448705656759348
- 团体: 0.6124532153793807
- 地点: 0.6592689295039165
- 人物: 0.8386047352250136
- 产品: 0.6695371367061357
F1分数的置信区间通过自助法获得如下:
- F1(微平均):
- 90%: [0.642462096346594, 0.6609916755115764]
- 95%: [0.6408253162283987, 0.6624122690460243]
- F1(宏平均):
- 90%: [0.642462096346594, 0.6609916755115764]
- 95%: [0.6408253162283987, 0.6624122690460243]
完整评估结果可在NER指标文件和实体跨度指标文件中查看。
使用方法
该模型可通过tner库使用。通过pip安装库。
pip install tner
TweetNER7预处理后的推文将账户名和URL转换为特殊格式(详见数据集页面),因此我们需要相应处理推文后运行模型预测,如下所示。
import re
from urlextract import URLExtract
from tner import TransformersNER
extractor = URLExtract()
def format_tweet(tweet):
urls = extractor.find_urls(tweet)
for url in urls:
tweet = tweet.replace(url, "{{URL}}")
tweet = re.sub(r"\b(\s*)(@[\S]+)\b", r'\1{\2@}', tweet)
return tweet
text = "从@herbiehancock通过@bluenoterecords获取`Takin' Off`专辑的全模拟经典黑胶版本,链接如下: http://bluenote.lnk.to/AlbumOfTheWeek"
text_format = format_tweet(text)
model = TransformersNER("tner/twitter-roberta-base-dec2021-tweetner7-continuous")
model.predict([text_format])
也可以通过transformers库使用,但不推荐,因为目前不支持CRF层。
训练超参数
训练期间使用的超参数如下:
- 数据集: ['tner/tweetner7']
- 数据集分割: train_2021
- 数据集名称: None
- 本地数据集: None
- 模型: tner/twitter-roberta-base-dec2021-tweetner-2020
- CRF: True
- 最大长度: 128
- 训练轮数: 30
- 批量大小: 32
- 学习率: 1e-06
- 随机种子: 0
- 梯度累积步数: 1
- 权重衰减: 1e-07
- 学习率预热步比例: 0.15
- 最大梯度范数: 1
完整配置可在微调参数文件中查看。
参考文献
如果使用该模型,请引用T-NER论文和TweetNER7论文。
@inproceedings{ushio-camacho-collados-2021-ner,
title = "{T}-{NER}: 一个全方位的基于Transformer的命名实体识别Python库",
author = "Ushio, Asahi and
Camacho-Collados, Jose",
booktitle = "第16届欧洲计算语言学协会会议系统演示论文集",
month = 4月,
year = "2021",
address = "线上",
publisher = "计算语言学协会",
url = "https://aclanthology.org/2021.eacl-demos.7",
doi = "10.18653/v1/2021.eacl-demos.7",
pages = "53--62",
abstract = "语言模型(LM)预训练已导致许多NLP下游任务的持续改进,包括命名实体识别(NER)。在本文中,我们介绍了T-NER(基于Transformer的命名实体识别),一个用于NER LM微调的Python库。除了其实用性外,T-NER还便于研究和调查在NER上微调的LM的跨领域和跨语言泛化能力。我们的库还提供了一个Web应用程序,用户可以在其中交互式地获取任意文本的模型预测,这为非专业程序员提供了定性模型评估的便利。我们通过将九个公共NER数据集编译为统一格式并评估跨数据集和跨语言的性能来展示该库的潜力。我们初步实验的结果表明,领域内性能在各数据集之间普遍具有竞争力。然而,即使使用大型预训练LM,跨领域泛化也具有挑战性,但如果对组合数据集进行微调,LM仍有能力学习领域特定特征。为了促进未来研究,我们还通过Hugging Face模型中心发布了所有LM检查点。",
}
@inproceedings{ushio-etal-2022-tweet,
title = "推特中的命名实体识别:一个数据集及短期时间偏移分析",
author = "Ushio, Asahi and
Neves, Leonardo and
Silva, Vitor and
Barbieri, Francesco. and
Camacho-Collados, Jose",
booktitle = "第二届亚太计算语言学协会会议暨第十二届国际自然语言处理联合会议",
month = 11月,
year = "2022",
address = "线上",
publisher = "计算语言学协会",
}