D

Distil Large V3.5

由 distil-whisper 开发
Distil-Whisper是OpenAI Whisper-Large-v3的知识蒸馏版本,通过大规模伪标签训练实现高效语音识别。
下载量 4,804
发布时间 : 12/5/2024
模型介绍
内容详情
替代品

模型简介

Distil-Large-v3.5是Distil-Whisper英语系列的最新成员,在保持高效性的同时提供更优性能,训练数据量达98,000小时,采用'耐心'教师模型策略和SpecAugment数据增强技术。

模型特点

高效推理
比Whisper-Large-v3-Turbo快约1.5倍,同时保持相近的准确率
知识蒸馏优化
采用'耐心'教师模型策略和SpecAugment数据增强技术,训练数据量达98,000小时
推测解码兼容
适合作为Whisper-Large-v3推测解码的草稿模型,可实现约2倍推理加速

模型能力

短格式语音转录
长格式语音转录
时间戳生成
英语语音识别

使用案例

语音转录
会议记录
将会议录音转换为文字记录
词错误率(WER)约7.08%
播客转录
将长格式音频内容转换为文字
长格式WER约11.39%