Roberta Large 1160k
MIT
基于北欧语料库训练的多语言RoBERTa大模型,支持瑞典语、挪威语、丹麦语和英语
大型语言模型
Transformers

支持多种语言
R
AI-Sweden-Models
1,159
10
Roberta Base Turkish Uncased
MIT
这是一个基于土耳其语的RoBERTa基础模型,预训练数据来源于土耳其语维基百科、土耳其语OSCAR语料库以及部分新闻网站。
大型语言模型
Transformers

R
TURKCELL
109
7
Madlad400 7b Mt
Apache-2.0
基于T5架构的多语言机器翻译模型,支持400+种语言,使用2500亿token训练
机器翻译
支持多种语言
M
google
4,450
15
Roberta Large Japanese
基于日语维基百科和CC-100日语部分预训练的大型日语RoBERTa模型,适用于日语自然语言处理任务。
大型语言模型
Transformers

日语
R
nlp-waseda
227
23
Roberta Base Turkish Uncased
MIT
基于土耳其语预训练的RoBERTa基础模型,使用38GB土耳其语语料训练
大型语言模型
Transformers

其他
R
burakaytan
57
16
Opus Mt Tc Big Tr En
这是一个基于Transformer架构的大型神经机器翻译模型,专门用于从土耳其语翻译到英语。
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
98.62k
29
Opus Mt Tc Big Lt En
这是一个用于从立陶宛语翻译到英语的神经机器翻译模型,属于OPUS-MT项目的一部分。
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
312
2
Opus Mt Tc Big Sh En
这是一个用于将塞尔维亚-克罗地亚语(sh)翻译成英语(en)的神经机器翻译模型,属于OPUS-MT项目的一部分。
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
28.03k
0
Opus Mt Tc Big Gmq En
这是一个用于从北日耳曼语支(gmq)翻译到英语(en)的神经机器翻译模型,属于OPUS-MT项目的一部分。
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
552
0
Opus Mt Tc Big El En
这是一个从现代希腊语(el)到英语(en)的神经机器翻译模型,属于OPUS-MT项目的一部分,旨在提供高质量的翻译服务。
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
302
4
Opus Mt Tc Big Cat Oci Spa En
这是一个用于从加泰罗尼亚语、奥克语和西班牙语翻译到英语的神经机器翻译模型,属于OPUS-MT项目的一部分。
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
24
2
Opus Mt Tc Big En Es
OPUS-MT项目提供的英语到西班牙语神经机器翻译模型,基于transformer-big架构
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
29.31k
14
Opus Mt Tc Big En It
这是一个用于英语到意大利语翻译的神经机器翻译模型,属于OPUS-MT项目的一部分,采用transformer-big架构。
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
16.22k
5
Opus Mt Tc Big En Gmq
这是一个用于从英语翻译至北日耳曼语支(包括丹麦语、法罗语、冰岛语、挪威博克马尔语、挪威尼诺斯克语和瑞典语)的神经机器翻译模型,属于OPUS-MT项目的一部分。
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
372
3
Opus Mt Tc Big En Cat Oci Spa
这是一个用于从英语翻译到加泰罗尼亚语、奥克语和西班牙语的神经机器翻译模型,属于OPUS-MT项目的一部分。
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
30
4
Opus Mt Tc Big En Ar
这是一个用于从英语翻译到阿拉伯语的神经机器翻译模型,属于OPUS-MT项目的一部分,支持多目标语言翻译。
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
4,562
23
Opus Mt Tc Big De Zle
这是一个用于从德语翻译到东斯拉夫语族(白俄罗斯语、俄语、乌克兰语)的神经机器翻译模型,属于OPUS-MT项目的一部分。
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
63
0
Icebert Xlmr Ic3
基于RoBERTa-base架构的冰岛语掩码语言模型,通过xlm-roberta-base微调训练而成
大型语言模型
Transformers

其他
I
mideind
24
0
Icebert Ic3
基于RoBERTa-base架构训练的冰岛语掩码语言模型,使用fairseq框架训练
大型语言模型
Transformers

其他
I
mideind
16
0
Bert Base Arabert
AraBERT是基于谷歌BERT架构的阿拉伯语预训练语言模型,专为阿拉伯语自然语言理解任务设计。
大型语言模型
阿拉伯语
B
aubmindlab
74.71k
29
Mt5 Xxl
Apache-2.0
mT5是谷歌推出的多语言文本到文本转换模型,支持101种语言,基于mC4数据集预训练,适用于多种NLP任务。
大型语言模型
Transformers

支持多种语言
M
google
7,532
68
Bert Base Qarib60 1790k
QARiB是基于约4.2亿条推文和1.8亿条文本句子训练的阿拉伯语及方言BERT模型,支持多种下游NLP任务。
大型语言模型
阿拉伯语
B
ahmedabdelali
16
2
Bert Base Arabertv02
AraBERT是基于BERT架构的阿拉伯语预训练语言模型,专门针对阿拉伯语理解任务优化。
大型语言模型
阿拉伯语
B
aubmindlab
666.17k
35
Bert Base Qarib60 1970k
QARiB是基于阿拉伯语及方言的BERT模型,训练数据包含约4.2亿条推文和1.8亿条文本句子,支持多种阿拉伯语NLP任务。
大型语言模型
阿拉伯语
B
ahmedabdelali
41
1
Plt5 Small
plT5是基于T5架构、针对波兰语优化的语言模型,支持翻译、摘要生成、问答和阅读理解等任务。
大型语言模型
Transformers

其他
P
allegro
58
2
Mbarthez
Apache-2.0
BARThez是一个基于BART架构的法语序列到序列预训练模型,特别适合生成任务如抽象摘要。
大型语言模型
Transformers

法语
M
moussaKam
1,032
6
Icebert
基于RoBERTa-base架构训练的冰岛语掩码语言模型,使用16GB冰岛语文本数据训练
大型语言模型
Transformers

其他
I
mideind
1,203
3
Roberta Tagalog Base
针对塔加洛语(菲律宾语)开发的RoBERTa模型,采用TLUnified语料库训练,支持菲律宾语NLP任务
大型语言模型
Transformers

其他
R
jcblaise
710
4
Gerpt2 Large
MIT
GerPT2是德语版GPT2的大规模版本,基于CC-100语料库和德语维基百科训练,在德语文本生成任务上表现优异。
大型语言模型
德语
G
benjamin
75
9
Ruperta Base
RuPERTa是基于大型西班牙语语料库训练的无大小写RoBERTa模型,采用RoBERTa改进的预训练方法,适用于多种西班牙语NLP任务。
大型语言模型
西班牙语
R
mrm8488
39
2
Berdou 500k
基于Bertimbau-Base模型在巴西联邦官方公报50万条实例上进行MLM(掩码语言建模)微调的葡萄牙语BERT模型
大型语言模型
Transformers

B
flavio-nakasato
16
0
Norbert
NorBERT 是一个针对挪威语优化的 BERT 模型,由奥斯陆大学语言技术组开发。
大型语言模型
其他
N
ltg
199
7
Barthez
Apache-2.0
BARThez是基于BART架构的法语序列到序列预训练模型,特别适合生成式任务如抽象摘要。
大型语言模型
Transformers

法语
B
moussaKam
1,487
17
Indot5 Base
基于印尼语mC4数据集预训练的T5(文本到文本转换Transformer)基础模型,需微调后使用
大型语言模型
Transformers

其他
I
Wikidepia
635
1
Sloberta
SloBERTa是一个专门针对斯洛文尼亚语优化的单语BERT类模型,基于Camembert架构开发。
大型语言模型
Transformers

其他
S
EMBEDDIA
2,691
5
Opus Mt Mul En
Apache-2.0
这是一个基于Transformer架构的多语言到英语的机器翻译模型,支持超过100种语言的翻译任务。
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
173.61k
77
Est Roberta
Est-RoBERTa是一个单语种爱沙尼亚语BERT类模型,基于RoBERTa架构,训练于25.1亿个爱沙尼亚语词汇标记。
大型语言模型
Transformers

其他
E
EMBEDDIA
155
4
Opus Mt En Ine
Apache-2.0
这是一个基于Transformer架构的多语言机器翻译模型,支持从英语到多种印欧语系语言的翻译任务。
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
83
0
Mbart Large 50 Finetuned Opus En Pt Translation
该模型是mBART-50大型模型在opus100数据集上针对英语到葡萄牙语翻译任务微调的版本,支持高质量的双语翻译。
机器翻译
Transformers

支持多种语言
M
Narrativa
87
12
Translation Bart Hu En
Apache-2.0
基于BART架构的匈牙利语-英语神经机器翻译模型,在OPUS语料库上微调,性能优于谷歌翻译
机器翻译
Transformers

支持多种语言
T
NYTK
34
0
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文