多说话人分离
Diar Sortformer 4spk V1
基于Sortformer架构的端到端说话人日志模型,通过按说话人语音段到达时间顺序解决日志中的排列问题,支持最多4个说话人识别。
说话人处理
D
nvidia
385.49k
36
Wsj0 2mix Skim Small Causal
这是一个基于ESPnet框架训练的语音增强模型,专门用于处理wsj0_2mix数据集中的混合语音信号分离任务。
音频增强
英语
W
lichenda
26
1
Sepformer Libri3mix
Apache-2.0
这是一个基于SepFormer架构的音频源分离模型,在Libri3Mix数据集上训练,能够将混合语音分离为多个独立音源。
声音分离
英语
S
speechbrain
1,511
7
Sepformer Libri2mix
Apache-2.0
使用SepFormer架构实现的音频源分离模型,在Libri2Mix数据集上训练,可分离混合音频中的独立声源
声音分离
英语
S
speechbrain
783
6
Sepformer Whamr
Apache-2.0
SepFormer是一种基于Transformer的音频源分离模型,在WHAMR!数据集上训练,用于分离混合语音信号。
声音分离
英语
S
speechbrain
1,692
15
Sepformer Wsj03mix
Apache-2.0
这是一个使用SepFormer架构进行音频源分离的模型,在WSJ0-3Mix数据集上训练,能够将混合语音分离成独立的语音源。
声音分离
英语
S
speechbrain
158
6
Sepformer Wsj02mix
Apache-2.0
基于SepFormer架构的音频源分离模型,在WSJ0-2Mix数据集上训练,能够将混合音频分离为独立的语音源。
声音分离
英语
S
speechbrain
8,637
62
Convtasnet Libri3Mix Sepnoisy
基于Asteroid框架训练的ConvTasNet模型,用于含噪音频分离任务,训练数据来自Libri3Mix数据集。
声音分离
C
mpariente
30
0
Convtasnet Libri2Mix Sepnoisy 16k
基于Asteroid框架训练的ConvTasNet模型,用于含噪语音分离任务,在Libri2Mix数据集上训练。
声音分离
C
JorisCos
8,407
1
Convtasnet Libri3Mix Sepnoisy 16k
基于Asteroid框架训练的ConvTasNet模型,用于从混合音频中分离噪声和语音信号。
声音分离
C
JorisCos
473
1
Convtasnet Libri3Mix Sepclean 16k
基于Asteroid框架训练的ConvTasNet模型,用于语音分离任务,在Libri3Mix数据集上训练,支持16kHz采样率的音频输入。
声音分离
C
JorisCos
48
0
Convtasnet Libri3Mix Sepnoisy 8k
基于Asteroid框架训练的ConvTasNet模型,用于从混合音频中分离出3个独立音源,特别针对8kHz采样率的含噪声语音数据优化。
声音分离
C
JorisCos
33
2