library_name: transformers
base_model: MHGanainy/roberta-base-legal-multi
tags:
- generated_from_trainer
metrics:
- 精确率
- 召回率
- F1值
- 准确率
model-index:
- name: roberta-base-legal-multi-downstream-indian-ner
results: []
roberta-base-legal-multi-downstream-indian-ner
本模型是基于MHGanainy/roberta-base-legal-multi在未知数据集上微调的版本,其评估集表现如下:
- 损失值:0.2526
- 精确率:0.6406
- 召回率:0.8244
- F1值:0.7210
- 准确率:0.9663
模型描述
需补充更多信息
使用场景与限制
需补充更多信息
训练与评估数据
需补充更多信息
训练流程
训练超参数
训练过程中使用的超参数如下:
- 学习率:3e-05
- 训练批大小:64
- 评估批大小:64
- 随机种子:1
- 优化器:Adam(beta1=0.9,beta2=0.999,epsilon=1e-08)
- 学习率调度器类型:线性
- 训练轮次:20.0
- 混合精度训练:原生AMP
训练结果
训练损失 |
轮次 |
步数 |
验证损失 |
精确率 |
召回率 |
F1值 |
准确率 |
无记录 |
1.0 |
172 |
0.2310 |
0.1233 |
0.4904 |
0.1971 |
0.8307 |
无记录 |
2.0 |
344 |
0.1929 |
0.1983 |
0.5393 |
0.2900 |
0.8765 |
0.4324 |
3.0 |
516 |
0.1667 |
0.1773 |
0.4897 |
0.2604 |
0.8738 |
0.4324 |
4.0 |
688 |
0.1836 |
0.2957 |
0.6059 |
0.3975 |
0.9081 |
0.4324 |
5.0 |
860 |
0.2005 |
0.2855 |
0.5623 |
0.3787 |
0.9137 |
0.1106 |
6.0 |
1032 |
0.2003 |
0.3858 |
0.6974 |
0.4968 |
0.9323 |
0.1106 |
7.0 |
1204 |
0.2224 |
0.4182 |
0.6719 |
0.5155 |
0.9428 |
0.1106 |
8.0 |
1376 |
0.2221 |
0.3347 |
0.6147 |
0.4334 |
0.9312 |
0.0589 |
9.0 |
1548 |
0.1960 |
0.4067 |
0.7026 |
0.5152 |
0.9404 |
0.0589 |
10.0 |
1720 |
0.1904 |
0.5049 |
0.7410 |
0.6006 |
0.9524 |
0.0589 |
11.0 |
1892 |
0.2274 |
0.5337 |
0.7707 |
0.6307 |
0.9565 |
0.0359 |
12.0 |
2064 |
0.2471 |
0.5525 |
0.7696 |
0.6432 |
0.9575 |
0.0359 |
13.0 |
2236 |
0.2352 |
0.5649 |
0.7675 |
0.6508 |
0.9591 |
0.0359 |
14.0 |
2408 |
0.2297 |
0.5530 |
0.7661 |
0.6424 |
0.9586 |
0.0224 |
15.0 |
2580 |
0.2349 |
0.5702 |
0.7923 |
0.6632 |
0.9597 |
0.0224 |
16.0 |
2752 |
0.2465 |
0.6033 |
0.8052 |
0.6898 |
0.9624 |
0.0224 |
17.0 |
2924 |
0.2428 |
0.6100 |
0.8098 |
0.6959 |
0.9647 |
0.0143 |
18.0 |
3096 |
0.2543 |
0.6238 |
0.8154 |
0.7068 |
0.9646 |
0.0143 |
19.0 |
3268 |
0.2526 |
0.6305 |
0.8161 |
0.7114 |
0.9651 |
0.0143 |
20.0 |
3440 |
0.2526 |
0.6406 |
0.8244 |
0.7210 |
0.9663 |
框架版本
- Transformers 4.44.2
- Pytorch 2.4.0+cu121
- Datasets 2.21.0
- Tokenizers 0.19.1