🚀 NLLB-200 Distilled-350M_en2ko
NLLB-200模型在翻译任务中表现出色,为解决低资源语言问题做出了贡献。然而,对于计算资源有限的用户来说,运行6亿参数及以上的模型仍具有挑战性。因此,我创建了一个更小的模型,专注于英语到韩语的翻译,该模型甚至可以在CPU上运行(无需混合精度和量化)。
🚀 快速开始
你可以按照以下代码示例快速使用该模型进行英语到韩语的翻译:
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
model = AutoModelForSeq2SeqLM.from_pretrained('dhtocks/nllb-200-distilled-350M_en-ko', forced_bos_token_id=256098)
tokenizer = AutoTokenizer.from_pretrained('dhtocks/nllb-200-distilled-350M_en-ko', src_lang='eng_Latn', tgt_lang='kor_Hang')
inputs = tokenizer('[YOUR_INPUT]', return_tensors="pt")
output = model.generate(**inputs)
print(tokenizer.decode(output[0]))
✨ 主要特性
- 轻量级模型:基于NLLB-200 6亿参数模型进行优化,参数仅为3.50537728亿(350M),降低了计算资源需求。
- 可CPU运行:无需混合精度和量化,可在CPU上运行,方便资源有限的用户使用。
📦 安装指南
文档未提供具体安装步骤,可参考transformers
库的官方安装指南进行安装。
💻 使用示例
基础用法
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
model = AutoModelForSeq2SeqLM.from_pretrained('dhtocks/nllb-200-distilled-350M_en-ko', forced_bos_token_id=256098)
tokenizer = AutoTokenizer.from_pretrained('dhtocks/nllb-200-distilled-350M_en-ko', src_lang='eng_Latn', tgt_lang='kor_Hang')
inputs = tokenizer('[YOUR_INPUT]', return_tensors="pt")
output = model.generate(**inputs)
print(tokenizer.decode(output[0]))
📚 详细文档
模型信息
属性 |
详情 |
模型类型 |
基于NLLB-200 600M |
参数数量 |
350,537,728 (350M) |
编码器层数 |
从12层减少到3层 |
解码器层数 |
从12层减少到3层 |
FFN维度 |
4096(保持不变) |
嵌入维度 |
1024(保持不变) |
词表大小 |
256206(保持不变) |
许可证 |
CC-BY-NC |
数据信息
评估指标
模型 |
参数数量 |
chrF(++) |
GPU推理时间 (s) |
CPU推理时间 (s) |
NLLB-200 3.3B |
3.3B |
34.3 |
0.98 s |
4.65 s |
NLLB-200 1.3B |
1.3B |
32.1 |
0.89 s |
2.46 s |
NLLB-200 600M |
600M |
32 |
0.43 s |
1.52 s |
NLLB-200 350M (ours) |
350M |
24.6 |
0.24 s |
1.43 s |
硬件环境
- CPU:Intel (R) Xeon(R) CPU @ 2.20GHz (16 cores)
- GPU:NVIDIA L4 24GB
📄 许可证
本模型使用的许可证为CC-BY-NC 4.0。
📚 引用信息
@misc{,
title={NLLB-200 distilled_350M_en-ko},
author={Saechan Oh},
year={2024}
}