🚀 BibliBERT
BibliBERT 是 dbmdz/bert-base-italian-xxl-cased 在 None 数据集上的微调版本。该模型在评估集上有一定的表现,可用于掩码语言建模任务。
🚀 快速开始
此模型是 dbmdz/bert-base-italian-xxl-cased 在 None 数据集上的微调版本,在评估集上取得了如下结果:
📚 详细文档
模型描述
更多信息待补充。
预期用途和限制
更多信息待补充。
训练和评估数据
更多信息待补充。
🔧 技术细节
训练过程
训练超参数
训练期间使用了以下超参数:
- 学习率:2e - 05
- 训练批次大小:8
- 评估批次大小:8
- 随机种子:0
- 优化器:Adam(β1 = 0.9,β2 = 0.999,ε = 1e - 08)
- 学习率调度器类型:线性
- 训练轮数:50
训练结果
训练损失 |
轮数 |
步数 |
验证损失 |
1.5764 |
1.0 |
16528 |
1.5214 |
1.4572 |
2.0 |
33056 |
1.4201 |
1.3787 |
3.0 |
49584 |
1.3728 |
1.3451 |
4.0 |
66112 |
1.3245 |
1.3066 |
5.0 |
82640 |
1.2614 |
1.2447 |
6.0 |
99168 |
1.2333 |
1.2172 |
7.0 |
115696 |
1.2149 |
1.2079 |
8.0 |
132224 |
1.1853 |
1.2167 |
9.0 |
148752 |
1.1586 |
1.2056 |
10.0 |
165280 |
1.1503 |
1.1307 |
11.0 |
181808 |
1.1224 |
1.1689 |
12.0 |
198336 |
1.1074 |
1.1007 |
13.0 |
214864 |
1.0924 |
1.0901 |
14.0 |
231392 |
1.0659 |
1.0667 |
15.0 |
247920 |
1.0650 |
1.0434 |
16.0 |
264448 |
1.0362 |
1.0333 |
17.0 |
280976 |
1.0250 |
1.0342 |
18.0 |
297504 |
1.0198 |
1.0059 |
19.0 |
314032 |
0.9950 |
0.9719 |
20.0 |
330560 |
0.9836 |
0.9863 |
21.0 |
347088 |
0.9873 |
0.9781 |
22.0 |
363616 |
0.9724 |
0.9369 |
23.0 |
380144 |
0.9599 |
0.9578 |
24.0 |
396672 |
0.9557 |
0.9253 |
25.0 |
413200 |
0.9400 |
0.9441 |
26.0 |
429728 |
0.9222 |
0.9138 |
27.0 |
446256 |
0.9140 |
0.882 |
28.0 |
462784 |
0.9045 |
0.864 |
29.0 |
479312 |
0.8880 |
0.8632 |
30.0 |
495840 |
0.9023 |
0.8342 |
32.0 |
528896 |
0.8740 |
0.8037 |
34.0 |
561952 |
0.8647 |
0.8119 |
37.0 |
611536 |
0.8358 |
0.8011 |
38.0 |
628064 |
0.8252 |
0.786 |
39.0 |
644592 |
0.8228 |
0.7697 |
41.0 |
677648 |
0.8138 |
0.7485 |
42.0 |
694176 |
0.8104 |
0.7689 |
43.0 |
710704 |
0.8018 |
0.7401 |
45.0 |
743760 |
0.7957 |
0.7031 |
47.0 |
776816 |
0.7726 |
0.7578 |
48.0 |
793344 |
0.7864 |
0.7298 |
49.0 |
809872 |
0.7775 |
0.707 |
50.0 |
826400 |
0.7784 |
框架版本
- Transformers 4.10.3
- Pytorch 1.9.0+cu102
- Datasets 1.12.1
- Tokenizers 0.10.3