🚀 distilhubert-finetuned-babycry-v7
该模型是基于ntu-spml/distilhubert在未知数据集上微调得到的版本。它在评估集上取得了以下成绩:
- 损失值:0.5864
- 准确率:{'accuracy': 0.8695652173913043}
- F1值:0.8089
- 精确率:0.7561
- 召回率:0.8696
📚 详细文档
模型信息
属性 |
详情 |
库名称 |
transformers |
许可证 |
apache-2.0 |
基础模型 |
ntu-spml/distilhubert |
标签 |
generated_from_trainer |
评估指标 |
准确率、F1值、精确率、召回率 |
模型名称 |
distilhubert-finetuned-babycry-v7 |
数据集 |
Nooon/Donate_a_cry |
训练和评估
训练超参数
训练过程中使用了以下超参数:
- 学习率:0.001
- 训练批次大小:4
- 评估批次大小:4
- 随机种子:42
- 梯度累积步数:2
- 总训练批次大小:8
- 优化器:Adam(β1=0.9,β2=0.999,ε=1e-08)
- 学习率调度器类型:余弦退火
- 学习率调度器预热比例:0.03
- 训练轮数:8
训练结果
训练损失 |
轮数 |
步数 |
验证损失 |
准确率 |
F1值 |
精确率 |
召回率 |
0.7417 |
0.5435 |
25 |
0.5925 |
{'accuracy': 0.8695652173913043} |
0.8089 |
0.7561 |
0.8696 |
0.7226 |
1.0870 |
50 |
0.6167 |
{'accuracy': 0.8695652173913043} |
0.8089 |
0.7561 |
0.8696 |
0.5606 |
1.6304 |
75 |
0.6808 |
{'accuracy': 0.8695652173913043} |
0.8089 |
0.7561 |
0.8696 |
0.8858 |
2.1739 |
100 |
0.5850 |
{'accuracy': 0.8695652173913043} |
0.8089 |
0.7561 |
0.8696 |
0.6573 |
2.7174 |
125 |
0.5968 |
{'accuracy': 0.8695652173913043} |
0.8089 |
0.7561 |
0.8696 |
0.7942 |
3.2609 |
150 |
0.6142 |
{'accuracy': 0.8695652173913043} |
0.8089 |
0.7561 |
0.8696 |
0.7497 |
3.8043 |
175 |
0.5915 |
{'accuracy': 0.8695652173913043} |
0.8089 |
0.7561 |
0.8696 |
0.7408 |
4.3478 |
200 |
0.5899 |
{'accuracy': 0.8695652173913043} |
0.8089 |
0.7561 |
0.8696 |
0.6499 |
4.8913 |
225 |
0.5989 |
{'accuracy': 0.8695652173913043} |
0.8089 |
0.7561 |
0.8696 |
0.6725 |
5.4348 |
250 |
0.5865 |
{'accuracy': 0.8695652173913043} |
0.8089 |
0.7561 |
0.8696 |
0.6797 |
5.9783 |
275 |
0.5852 |
{'accuracy': 0.8695652173913043} |
0.8089 |
0.7561 |
0.8696 |
0.6553 |
6.5217 |
300 |
0.5861 |
{'accuracy': 0.8695652173913043} |
0.8089 |
0.7561 |
0.8696 |
0.6535 |
7.0652 |
325 |
0.5863 |
{'accuracy': 0.8695652173913043} |
0.8089 |
0.7561 |
0.8696 |
0.7297 |
7.6087 |
350 |
0.5865 |
{'accuracy': 0.8695652173913043} |
0.8089 |
0.7561 |
0.8696 |
框架版本
- Transformers 4.44.2
- Pytorch 2.4.1+cu121
- Tokenizers 0.19.1
📄 许可证
本模型使用的许可证为apache-2.0。