说话人识别
Moonshine Base
MIT
Moonshine是由Useful Sensors开发的自动语音识别(ASR)模型系列,专为英文语音转录设计,在资源受限平台上表现优异。
语音识别
Transformers
英语
M
UsefulSensors
6,857
32
Wespeaker Voxceleb Resnet34 LM
基于ResNet34架构的说话人嵌入模型,经过大间隔微调,在VoxCeleb2数据集上训练,支持说话人识别和相似度计算等任务。
说话人处理
英语
W
Wespeaker
33
4
Wespeaker Voxceleb Resnet293 LM
基于ResNet293架构的说话人嵌入模型,经过大间隔微调优化,支持说话人识别、相似度计算和语音分割等任务
说话人处理
英语
W
Wespeaker
108
3
Wav2vec2 Base Superb Sid
Apache-2.0
基于Wav2Vec2-base预训练模型,在VoxCeleb1数据集上微调的说话人识别模型,用于语音分类任务
说话人处理
Transformers
英语
W
superb
1,489
20
Spkrec Xvect Voxceleb
Apache-2.0
这是一个使用SpeechBrain预训练的TDNN模型,用于提取说话人嵌入向量,主要应用于说话人验证和识别任务。
说话人处理
英语
S
speechbrain
27.68k
59
Wav2vec2 Large Superb Sid
Apache-2.0
基于 Wav2Vec2-Large 架构的说话人识别模型,在 VoxCeleb1 数据集上训练,用于将语音按说话人身份分类
说话人处理
Transformers
英语
W
superb
27
1
Hubert Large Superb Sid
Apache-2.0
基于Hubert-Large架构的说话人识别模型,在VoxCeleb1数据集上训练,用于语音分类任务
说话人处理
Transformers
英语
H
superb
349
2
Hubert Base Superb Sid
Apache-2.0
基于Hubert的说话人识别模型,针对SUPERB基准任务优化
说话人处理
Transformers
英语
H
superb
673
1