Wav2vec2 Base Librispeech Demo Colab
Apache-2.0
该模型是基于facebook/wav2vec2-base在LibriSpeech数据集上微调的语音识别模型,在评估集上取得了0.3174的词错误率。
语音识别
Transformers

W
vishwasgautam
14
0
Hubert Base Librispeech Demo Colab
Apache-2.0
基于facebook/hubert-large-ls960-ft微调的语音识别模型,在LibriSpeech数据集上训练
语音识别
Transformers

H
vishwasgautam
101
0
F5 Ita Test
这是F5-TTS模型的意大利语微调版本,基于facebook/multilingual_librispeech数据集训练,专注于意大利语的文本转语音任务。
语音合成
其他
F
alien79
98
2
Speecht5 Finetuned Multilingual Librispeech De
MIT
基于Microsoft SpeechT5模型在德语LibriSpeech数据集上微调的文本转语音模型
语音合成
Transformers

德语
S
semaj83
14
0
Assignment1 Omar
Apache-2.0
Wav2Vec2是一个基于自监督学习的语音识别模型,在LibriSpeech 960小时语音数据上预训练和微调,支持英语语音转录。
语音识别
Transformers

英语
A
Classroom-workshop
28
0
Librispeech 100h Supervised Meta
Apache-2.0
基于Kuray107/librispeech-5h-supervised微调的语音识别模型,在100小时LibriSpeech数据集上训练
语音识别
Transformers

L
Kuray107
25
0
Data2vec Audio Large 960h
Apache-2.0
Data2Vec是一个通用自监督学习框架,适用于语音、视觉和语言任务。
语音识别
Transformers

英语
D
facebook
2,531
7
Sew D Mid 400k Librispeech Clean 100h Ft
Apache-2.0
该模型是基于asapp/sew-d-mid-400k在LIBRISPEECH_ASR - CLEAN数据集上微调得到的自动语音识别模型,在评估集上取得了1.0536的词错误率(WER)。
语音识别
Transformers

S
patrickvonplaten
15
1
Wavlm Libri Clean 100h Large
基于microsoft/wavlm-large在LIBRISPEECH_ASR - CLEAN数据集上微调的自动语音识别模型
语音识别
Transformers

W
patrickvonplaten
8,171
3
Unispeech Sat Base 100h Libri Ft
Apache-2.0
基于UniSpeech-SAT基础模型,在LibriSpeech语音数据上进行了100小时微调的自动语音识别模型
语音识别
Transformers

英语
U
microsoft
643
4
Wav2vec2 100m Mls German Ft
Apache-2.0
该模型是基于facebook/wav2vec2-xls-r-100m在多语言LibriSpeech德语数据集上微调的自动语音识别模型
语音识别
Transformers

W
patrickvonplaten
27
0
Wavlm Base Libri Clean 100
基于WavLM架构的自动语音识别模型,在LibriSpeech CLEAN数据集(100小时)上微调
语音识别
Transformers

W
anjulRajendraSharma
73
0
Librispeech 100h Supervised
Apache-2.0
该模型是基于facebook/wav2vec2-large-lv60在LibriSpeech 100小时数据集上进行微调的语音识别模型,取得了较低的词错误率。
语音识别
Transformers

L
Kuray107
14
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文