语言:
- 多语言
- 南非荷兰语(af)
- 阿姆哈拉语(am)
- 阿拉伯语(ar)
- 阿斯图里亚斯语(ast)
- 阿塞拜疆语(az)
- 巴什基尔语(ba)
- 白俄罗斯语(be)
- 保加利亚语(bg)
- 孟加拉语(bn)
- 布列塔尼语(br)
- 波斯尼亚语(bs)
- 加泰罗尼亚语(ca)
- 宿务语(ceb)
- 捷克语(cs)
- 威尔士语(cy)
- 丹麦语(da)
- 德语(de)
- 希腊语(el)
- 英语(en)
- 西班牙语(es)
- 爱沙尼亚语(et)
- 波斯语(fa)
- 富拉语(ff)
- 芬兰语(fi)
- 法语(fr)
- 西弗里西亚语(fy)
- 爱尔兰语(ga)
- 苏格兰盖尔语(gd)
- 加利西亚语(gl)
- 古吉拉特语(gu)
- 豪萨语(ha)
- 希伯来语(he)
- 印地语(hi)
- 克罗地亚语(hr)
- 海地克里奥尔语(ht)
- 匈牙利语(hu)
- 亚美尼亚语(hy)
- 印尼语(id)
- 伊博语(ig)
- 伊洛卡诺语(ilo)
- 冰岛语(is)
- 意大利语(it)
- 日语(ja)
- 爪哇语(jv)
- 格鲁吉亚语(ka)
- 哈萨克语(kk)
- 高棉语(km)
- 卡纳达语(kn)
- 韩语(ko)
- 卢森堡语(lb)
- 干达语(lg)
- 林加拉语(ln)
- 老挝语(lo)
- 立陶宛语(lt)
- 拉脱维亚语(lv)
- 马尔加什语(mg)
- 马其顿语(mk)
- 马拉雅拉姆语(ml)
- 蒙古语(mn)
- 马拉地语(mr)
- 马来语(ms)
- 缅甸语(my)
- 尼泊尔语(ne)
- 荷兰语(nl)
- 挪威语(no)
- 北索托语(ns)
- 奥克语(oc)
- 奥里亚语(or)
- 旁遮普语(pa)
- 波兰语(pl)
- 普什图语(ps)
- 葡萄牙语(pt)
- 罗马尼亚语(ro)
- 俄语(ru)
- 信德语(sd)
- 僧伽罗语(si)
- 斯洛伐克语(sk)
- 斯洛文尼亚语(sl)
- 索马里语(so)
- 阿尔巴尼亚语(sq)
- 塞尔维亚语(sr)
- 斯瓦特语(ss)
- 巽他语(su)
- 瑞典语(sv)
- 斯瓦希里语(sw)
- 泰米尔语(ta)
- 泰语(th)
- 他加禄语(tl)
- 茨瓦纳语(tn)
- 土耳其语(tr)
- 乌克兰语(uk)
- 乌尔都语(ur)
- 乌兹别克语(uz)
- 越南语(vi)
- 沃洛夫语(wo)
- 科萨语(xh)
- 意第绪语(yi)
- 约鲁巴语(yo)
- 中文(zh)
- 祖鲁语(zu)
许可证: mit
M2M100 418M 模型
M2M100 是一个为多对多多语言翻译训练的多语言编码器-解码器(序列到序列)模型。该模型在这篇论文中首次提出,并在此代码库中发布。
该模型能够直接在100种语言的9900个翻译方向上进行翻译。要将文本翻译为目标语言,需要将目标语言ID作为生成的首个标记强制指定。为此,需将forced_bos_token_id
参数传递给generate
方法。
注意:M2M100Tokenizer
依赖于sentencepiece
,因此在运行示例前请确保已安装。
安装sentencepiece
请运行:pip install sentencepiece
from transformers import M2M100ForConditionalGeneration, M2M100Tokenizer
hi_text = "जीवन एक चॉकलेट बॉक्स की तरह है।"
chinese_text = "生活就像一盒巧克力。"
model = M2M100ForConditionalGeneration.from_pretrained("facebook/m2m100_418M")
tokenizer = M2M100Tokenizer.from_pretrained("facebook/m2m100_418M")
tokenizer.src_lang = "hi"
encoded_hi = tokenizer(hi_text, return_tensors="pt")
generated_tokens = model.generate(**encoded_hi, forced_bos_token_id=tokenizer.get_lang_id("fr"))
tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
tokenizer.src_lang = "zh"
encoded_zh = tokenizer(chinese_text, return_tensors="pt")
generated_tokens = model.generate(**encoded_zh, forced_bos_token_id=tokenizer.get_lang_id("en"))
tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
查看模型中心以寻找更多微调版本。
覆盖语言
(此处语言列表与上文完全一致,故不再重复翻译)
BibTeX条目与引用信息
@misc{fan2020englishcentric,
title={超越以英语为中心的多语言机器翻译},
author={Angela Fan and Shruti Bhosale and Holger Schwenk and Zhiyi Ma and Ahmed El-Kishky and Siddharth Goyal and Mandeep Baines and Onur Celebi and Guillaume Wenzek and Vishrav Chaudhary and Naman Goyal and Tom Birch and Vitaliy Liptchinsky and Sergey Edunov and Edouard Grave and Michael Auli and Armand Joulin},
year={2020},
eprint={2010.11125},
archivePrefix={arXiv},
primaryClass={cs.CL}
}