线性学习率
Zlm B64 Le4 S8000
MIT
该模型是基于microsoft/speecht5_tts微调的语音合成(TTS)模型,主要用于文本到语音转换任务。
语音合成
Transformers
Z
mikhail-panzo
24
0
Filipino Checkpoint
MIT
基于malay_full_checkpoint微调的模型,具体用途未明确说明
大型语言模型
Transformers
F
mikhail-panzo
21
0
Donut Trained Example 3
MIT
基于Donut架构的微调模型,具体用途和功能需要更多信息
大型语言模型
Transformers
D
anarenteriare
14
0
Bert Base Uncased Issues 128
Apache-2.0
基于bert-base-uncased模型微调的版本,适用于特定任务处理
大型语言模型
Transformers
B
cj-mills
129
0
Bert Base Uncased Ganesh123
基于BERT基础模型微调的版本,具体用途和训练数据信息暂不可知
大型语言模型
Transformers
B
stevems1
173
0
Wav2vec2 Base Timit Test3
Apache-2.0
基于facebook/wav2vec2-base微调的语音识别模型,具体训练数据集未明确说明
语音识别
Transformers
W
Brokette
22
0
Distilhubert Ft Common Language
Apache-2.0
该模型是基于distilhubert在通用语言数据集上微调的音频分类模型,主要用于语言识别任务。
音频分类
Transformers
D
anton-l
17
2
Wav2vec2 Base Checkpoint 9
Apache-2.0
该模型是基于wav2vec2-base-checkpoint-8在common_voice数据集上微调的语音识别模型,在评估集上取得了0.3258的词错误率。
语音识别
Transformers
W
jiobiala24
16
0
Teachinggen
MIT
该模型是基于GPT-2架构微调的版本,具体训练数据和用途未明确说明。
大型语言模型
Transformers
T
Connorvr
20
1