N

Nllb Moe 54b 4bit

由 KnutJaegersberg 开发
NLLB-MoE是Meta开发的混合专家机器翻译模型,支持200种语言,是目前最先进的开放访问机器翻译模型之一。
下载量 17
发布时间 : 12/16/2023

模型简介

NLLB-MoE是基于混合专家架构的大规模多语言机器翻译模型,专注于解决低资源语言的翻译问题,采用专家输出掩码技术优化性能。

模型特点

超大规模多语言支持
支持200种语言的互译,包括许多低资源语言
混合专家架构
采用MoE架构实现高效的大规模模型训练和推理
专家输出掩码
使用专家输出掩码技术优化模型性能
高效推理优化
通过bitsandbytes和Hugging Face Transformers优化实现快速加载

模型能力

文本翻译
多语言互译
低资源语言处理

使用案例

全球化应用
多语言内容本地化
为全球化应用和网站提供多语言内容翻译
支持200种语言的准确互译
低资源语言保护
为濒危和低资源语言提供机器翻译支持
使小语种获得与主流语言相当的翻译质量
学术研究
跨语言研究
支持学术论文和研究资料的跨语言转换
AIbase
智启未来,您的人工智能解决方案智库
简体中文