标签:
- 由训练器生成
数据集:
- wnut_17
指标:
- 精确率
- 召回率
- F1值
- 准确率
模型索引:
- 名称: twitter-roberta-base-WNUT
结果:
- 任务:
名称: 标记分类
类型: token-classification
数据集:
名称: wnut_17
类型: wnut_17
参数: wnut_17
指标:
- 名称: 精确率
类型: precision
值: 0.7045454545454546
- 名称: 召回率
类型: recall
值: 0.6303827751196173
- 名称: F1值
类型: f1
值: 0.6654040404040403
- 名称: 准确率
类型: accuracy
值: 0.9639611008707811
twitter-roberta-base-WNUT
该模型是基于cardiffnlp/twitter-roberta-base在wnut_17数据集上微调的版本。
它在评估集上取得了以下结果:
- 损失: 0.1938
- 精确率: 0.7045
- 召回率: 0.6304
- F1值: 0.6654
- 准确率: 0.9640
模型描述
需要更多信息
预期用途与限制
需要更多信息
训练与评估数据
需要更多信息
训练过程
训练超参数
训练过程中使用了以下超参数:
- 学习率: 2e-05
- 训练批次大小: 64
- 评估批次大小: 1024
- 随机种子: 42
- 优化器: Adam,参数为betas=(0.9,0.999)和epsilon=1e-08
- 学习率调度器类型: 线性
- 训练轮数: 10
训练结果
训练损失 |
轮次 |
步数 |
验证损失 |
精确率 |
召回率 |
F1值 |
准确率 |
无记录 |
0.46 |
25 |
0.3912 |
0.0 |
0.0 |
0.0 |
0.9205 |
无记录 |
0.93 |
50 |
0.2847 |
0.25 |
0.0024 |
0.0047 |
0.9209 |
无记录 |
1.39 |
75 |
0.2449 |
0.5451 |
0.3469 |
0.4240 |
0.9426 |
无记录 |
1.85 |
100 |
0.1946 |
0.6517 |
0.4856 |
0.5565 |
0.9492 |
无记录 |
2.31 |
125 |
0.1851 |
0.6921 |
0.5646 |
0.6219 |
0.9581 |
无记录 |
2.78 |
150 |
0.1672 |
0.6867 |
0.5873 |
0.6331 |
0.9594 |
无记录 |
3.24 |
175 |
0.1675 |
0.6787 |
0.5837 |
0.6277 |
0.9615 |
无记录 |
3.7 |
200 |
0.1644 |
0.6765 |
0.6328 |
0.6539 |
0.9638 |
无记录 |
4.17 |
225 |
0.1672 |
0.6997 |
0.6495 |
0.6737 |
0.9640 |
无记录 |
4.63 |
250 |
0.1652 |
0.6915 |
0.6435 |
0.6667 |
0.9649 |
无记录 |
5.09 |
275 |
0.1882 |
0.7067 |
0.6053 |
0.6521 |
0.9629 |
无记录 |
5.56 |
300 |
0.1783 |
0.7128 |
0.6352 |
0.6717 |
0.9645 |
无记录 |
6.02 |
325 |
0.1813 |
0.7011 |
0.6172 |
0.6565 |
0.9639 |
无记录 |
6.48 |
350 |
0.1804 |
0.7139 |
0.6447 |
0.6776 |
0.9647 |
无记录 |
6.94 |
375 |
0.1902 |
0.7218 |
0.6268 |
0.6709 |
0.9641 |
无记录 |
7.41 |
400 |
0.1883 |
0.7106 |
0.6316 |
0.6688 |
0.9641 |
无记录 |
7.87 |
425 |
0.1862 |
0.7067 |
0.6340 |
0.6683 |
0.9643 |
无记录 |
8.33 |
450 |
0.1882 |
0.7053 |
0.6328 |
0.6671 |
0.9639 |
无记录 |
8.8 |
475 |
0.1919 |
0.7055 |
0.6304 |
0.6658 |
0.9638 |
0.1175 |
9.26 |
500 |
0.1938 |
0.7045 |
0.6304 |
0.6654 |
0.9640 |
0.1175 |
9.72 |
525 |
0.1880 |
0.7025 |
0.6411 |
0.6704 |
0.9646 |
框架版本
- Transformers 4.20.1
- Pytorch 1.12.0
- Datasets 2.3.2
- Tokenizers 0.12.1