D

Distilhubert

由 ntu-spml 开发
DistilHuBERT是一种通过层级蒸馏HuBERT模型实现的轻量级语音表征学习模型,在保持性能的同时显著减小模型体积和计算成本。
下载量 2,962
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

基于HuBERT模型通过多任务学习框架进行层级蒸馏得到的轻量版语音表征学习模型,适用于多种语音处理任务。

模型特点

高效蒸馏
通过层级蒸馏技术将HuBERT模型体积缩小75%,速度提升73%
多任务学习
采用多任务学习框架直接从HuBERT模型蒸馏隐藏表征
低资源需求
所需训练时间和数据量极少,适合个人设备和终端设备
性能保持
在十项不同任务中保持绝大部分性能表现

模型能力

语音表征提取
语音识别(需微调)
语音处理任务支持

使用案例

语音处理
语音识别系统
通过微调后可用于构建语音识别系统
保持接近原始HuBERT的性能
终端设备语音处理
适合部署在资源有限的终端设备上进行语音处理
模型体积小,计算效率高