许可证: apache-2.0
标签:
- 训练生成
数据集:
- wnut_17
评估指标:
- 精确率
- 召回率
- F1值
- 准确率
模型索引:
- 名称: Cybonto-distilbert-base-uncased-finetuned-ner-Wnut17
结果:
- 任务:
名称: 标记分类
类型: token-classification
数据集:
名称: wnut_17
类型: wnut_17
参数: wnut_17
评估指标:
- 名称: 精确率
类型: precision
值: 0.6603139013452914
- 名称: 召回率
类型: recall
值: 0.4682034976152623
- 名称: F1值
类型: f1
值: 0.547906976744186
- 名称: 准确率
类型: accuracy
值: 0.9355430668654662
Cybonto-distilbert-base-uncased-finetuned-ner-Wnut17
该模型是基于distilbert-base-uncased在wnut_17数据集上微调的版本。
在评估集上取得了以下结果:
- 损失值: 0.5062
- 精确率: 0.6603
- 召回率: 0.4682
- F1值: 0.5479
- 准确率: 0.9355
模型描述
待补充更多信息
使用范围与限制
待补充更多信息
训练与评估数据
待补充更多信息
训练过程
训练超参数
训练过程中使用了以下超参数:
- 学习率: 2e-05
- 训练批次大小: 32
- 评估批次大小: 32
- 随机种子: 42
- 优化器: Adam (betas=(0.9,0.999), epsilon=1e-08)
- 学习率调度器类型: linear
- 训练轮数: 30
训练结果
训练损失 |
轮次 |
步数 |
验证损失 |
精确率 |
召回率 |
F1值 |
准确率 |
无记录 |
1.0 |
107 |
0.3396 |
0.6470 |
0.4269 |
0.5144 |
0.9330 |
无记录 |
2.0 |
214 |
0.3475 |
0.5948 |
0.4539 |
0.5149 |
0.9335 |
无记录 |
3.0 |
321 |
0.3793 |
0.6613 |
0.4253 |
0.5177 |
0.9332 |
无记录 |
4.0 |
428 |
0.3598 |
0.6195 |
0.4944 |
0.5500 |
0.9354 |
0.0409 |
5.0 |
535 |
0.3702 |
0.5802 |
0.4571 |
0.5113 |
0.9308 |
0.0409 |
6.0 |
642 |
0.4192 |
0.6546 |
0.4459 |
0.5305 |
0.9344 |
0.0409 |
7.0 |
749 |
0.4039 |
0.6360 |
0.4610 |
0.5346 |
0.9354 |
0.0409 |
8.0 |
856 |
0.4104 |
0.6564 |
0.4587 |
0.5400 |
0.9353 |
0.0409 |
9.0 |
963 |
0.3839 |
0.6283 |
0.4944 |
0.5534 |
0.9361 |
0.0132 |
10.0 |
1070 |
0.4331 |
0.6197 |
0.4547 |
0.5245 |
0.9339 |
0.0132 |
11.0 |
1177 |
0.4152 |
0.6196 |
0.4817 |
0.5420 |
0.9355 |
0.0132 |
12.0 |
1284 |
0.4654 |
0.6923 |
0.4507 |
0.5460 |
0.9353 |
0.0132 |
13.0 |
1391 |
0.4869 |
0.6739 |
0.4436 |
0.5350 |
0.9350 |
0.0132 |
14.0 |
1498 |
0.4297 |
0.6424 |
0.4769 |
0.5474 |
0.9353 |
0.0061 |
15.0 |
1605 |
0.4507 |
0.6272 |
0.4626 |
0.5325 |
0.9340 |
0.0061 |
16.0 |
1712 |
0.4410 |
0.6066 |
0.4793 |
0.5355 |
0.9335 |
0.0061 |
17.0 |
1819 |
0.4851 |
0.6639 |
0.4523 |
0.5381 |
0.9351 |
0.0061 |
18.0 |
1926 |
0.4815 |
0.6553 |
0.4563 |
0.5380 |
0.9346 |
0.0035 |
19.0 |
2033 |
0.5188 |
0.6780 |
0.4420 |
0.5351 |
0.9350 |
0.0035 |
20.0 |
2140 |
0.4986 |
0.6770 |
0.4698 |
0.5547 |
0.9363 |
0.0035 |
21.0 |
2247 |
0.4834 |
0.6552 |
0.4714 |
0.5483 |
0.9355 |
0.0035 |
22.0 |
2354 |
0.5094 |
0.6784 |
0.4595 |
0.5479 |
0.9358 |
0.0035 |
23.0 |
2461 |
0.4954 |
0.6583 |
0.4579 |
0.5401 |
0.9354 |
0.0026 |
24.0 |
2568 |
0.5035 |
0.6667 |
0.4595 |
0.5440 |
0.9354 |
0.0026 |
25.0 |
2675 |
0.5000 |
0.6599 |
0.4658 |
0.5461 |
0.9355 |
0.0026 |
26.0 |
2782 |
0.4968 |
0.6697 |
0.4738 |
0.5549 |
0.9357 |
0.0026 |
27.0 |
2889 |
0.4991 |
0.6545 |
0.4714 |
0.5481 |
0.9352 |
0.0026 |
28.0 |
2996 |
0.4936 |
0.6508 |
0.4769 |
0.5505 |
0.9353 |
0.0021 |
29.0 |
3103 |
0.5005 |
0.6535 |
0.4722 |
0.5482 |
0.9353 |
0.0021 |
30.0 |
3210 |
0.5062 |
0.6603 |
0.4682 |
0.5479 |
0.9355 |
框架版本
- Transformers 4.18.0
- Pytorch 1.10.0+cu111
- Datasets 2.1.0
- Tokenizers 0.12.1