许可证: mit
标签:
- 由训练器生成
管道标签: 文本转语音
基础模型: microsoft/speecht5_tts
模型索引:
- 名称: speecht5_finetuned_google_fleurs_greek
结果: []
speecht5_finetuned_google_fleurs_greek
该模型是基于microsoft/speecht5_tts在None数据集上微调的版本。
在评估集上取得了以下结果:
模型描述
需要更多信息
预期用途与限制
需要更多信息
训练与评估数据
需要更多信息
训练过程
训练超参数
训练过程中使用了以下超参数:
- 学习率: 2.5e-05
- 训练批次大小: 8
- 评估批次大小: 8
- 随机种子: 42
- 梯度累积步数: 4
- 总训练批次大小: 32
- 优化器: Adam (β1=0.9, β2=0.999, ε=1e-08)
- 学习率调度器类型: 线性
- 学习率预热步数: 100
- 训练轮次: 40
训练结果
训练损失 |
轮次 |
步数 |
验证损失 |
0.5174 |
1.0 |
583 |
0.4863 |
0.4948 |
2.0 |
1166 |
0.4611 |
0.4723 |
3.0 |
1749 |
0.4503 |
0.4763 |
4.0 |
2333 |
0.4438 |
0.4614 |
5.0 |
2916 |
0.4407 |
0.4569 |
6.0 |
3499 |
0.4387 |
0.4538 |
7.0 |
4082 |
0.4306 |
0.4539 |
8.0 |
4666 |
0.4282 |
0.4564 |
9.0 |
5249 |
0.4230 |
0.4493 |
10.0 |
5832 |
0.4222 |
0.445 |
11.0 |
6415 |
0.4190 |
0.4564 |
12.0 |
6999 |
0.4195 |
0.4381 |
13.0 |
7582 |
0.4161 |
0.4328 |
14.0 |
8165 |
0.4147 |
0.4424 |
15.0 |
8748 |
0.4140 |
0.4282 |
16.0 |
9332 |
0.4117 |
0.4349 |
17.0 |
9915 |
0.4090 |
0.4381 |
18.0 |
10498 |
0.4090 |
0.4328 |
19.0 |
11081 |
0.4073 |
0.4347 |
20.0 |
11665 |
0.4079 |
0.4293 |
21.0 |
12248 |
0.4055 |
0.4251 |
22.0 |
12831 |
0.4052 |
0.4359 |
23.0 |
13414 |
0.4023 |
0.4311 |
24.0 |
13998 |
0.4016 |
0.421 |
25.0 |
14581 |
0.4014 |
0.4162 |
26.0 |
15164 |
0.3991 |
0.4219 |
27.0 |
15747 |
0.3990 |
0.4247 |
28.0 |
16331 |
0.3989 |
0.4188 |
29.0 |
16914 |
0.3974 |
0.4229 |
30.0 |
17497 |
0.3976 |
0.4246 |
31.0 |
18080 |
0.3960 |
0.4219 |
32.0 |
18664 |
0.3956 |
0.4228 |
33.0 |
19247 |
0.3951 |
0.4183 |
34.0 |
19830 |
0.3946 |
0.4097 |
35.0 |
20413 |
0.3936 |
0.4245 |
36.0 |
20997 |
0.3935 |
0.4184 |
37.0 |
21580 |
0.3930 |
0.4198 |
38.0 |
22163 |
0.3937 |
0.4193 |
39.0 |
22746 |
0.3925 |
0.4096 |
39.98 |
23320 |
0.3920 |
框架版本
- Transformers 4.30.0.dev0
- PyTorch 2.0.1+cu117
- Datasets 2.13.1
- Tokenizers 0.13.3