许可证:apache-2.0
语言:
- 德语
库名称:transformers
任务标签:自动语音识别
新版本:primeline/whisper-tiny-german-1224
whisper-tiny-german
该模型是基于whisper-tiny的德语语音识别模型,参数量为3780万,bfloat16格式下大小为73MB。
作为Whisper large v3 german的后续版本,我们开发了这款微型模型,适用于对模型体积敏感的边缘场景。
用途与限制
本模型专为德语语音识别任务设计,适用于需轻量化模型的边缘场景。由于模型规模较小,不建议在关键任务中使用,其性能可能无法满足所有场景需求。
训练数据
训练数据来自Common Voice数据集过滤子集、多语言LibriSpeech及部分内部数据。我们对数据进行了质量校验和文本规范化处理,包括大小写和标点符号的统一。
模型家族
模型名称 |
参数量 |
链接 |
Whisper large v3 german |
15.4亿 |
链接 |
Whisper large v3 turbo german |
8.09亿 |
链接 |
Distil-whisper large v3 german |
7.56亿 |
链接 |
tiny whisper |
3780万 |
链接 |
训练超参数
- 学习率:3e-05
- 总训练批大小:512
- 训练轮次:5.0
框架版本
- Transformers 4.39.3
- Pytorch 2.3.0a0+ebedce2
- Datasets 2.18.0
- Tokenizers 0.15.2
使用方法
import torch
from transformers import AutoModelForSpeechSeq2Seq, AutoProcessor, pipeline
from datasets import load_dataset
device = "cuda:0" if torch.cuda.is_available() else "cpu"
torch_dtype = torch.float16 if torch.cuda.is_available() else torch.float32
model_id = "primeline/whisper-tiny-german"
model = AutoModelForSpeechSeq2Seq.from_pretrained(
model_id, torch_dtype=torch_dtype, low_cpu_mem_usage=True, use_safetensors=True
)
model.to(device)
processor = AutoProcessor.from_pretrained(model_id)
pipe = pipeline(
"automatic-speech-recognition",
model=model,
tokenizer=processor.tokenizer,
feature_extractor=processor.feature_extractor,
max_new_tokens=128,
chunk_length_s=30,
batch_size=16,
return_timestamps=True,
torch_dtype=torch_dtype,
device=device,
)
dataset = load_dataset("distil-whisper/librispeech_long", "clean", split="validation")
sample = dataset[0]["audio"]
result = pipe(sample)
print(result["text"])

您的人工智能基础设施德国合作伙伴
体验为深度学习、机器学习及高性能计算打造的强大AI基础设施,专为AI训练与推理优化。
模型作者:Florian Zimmermeister
免责声明
本模型非primeLine集团产品,
由[Florian Zimmermeister](https://huggingface.co/flozi00)基于primeLine提供的算力支持完成研究。
模型由primeLine账户发布,但非primeLine Solutions GmbH商业产品。
请注意,尽管我们已尽力测试和开发,模型仍可能存在错误。
使用本模型需自行承担风险,我们对模型输出错误不承担任何责任。