序列到序列
Khmer Mt5 Summarization
MIT
这是一个针对高棉语文本摘要任务微调的mT5模型,基于谷歌的mT5-small模型,在高棉语文本数据集上微调,能够生成简洁且语义丰富的高棉语文本摘要。
文本生成
Transformers
其他
K
songhieng
58
2
M2m100 1.2B Ctranslate2
MIT
M2M100是一个多语言编码器-解码器模型,支持100种语言之间的直接翻译,参数规模12亿。
机器翻译
支持多种语言
M
entai2965
92
3
Mt5 Small Finetuned Gazeta Ru
Apache-2.0
基于google/mt5-small在gazeta数据集上微调的俄语摘要生成模型
文本生成
TensorBoard
M
sansmislom
33
0
T5 Query Reformulation RL
Apache-2.0
这是一个专为搜索查询改写设计的生成模型,采用序列到序列架构和强化学习框架来生成多样化且相关的查询改写。
大型语言模型
Transformers
支持多种语言
T
prhegde
366
6
Sst T5 Base
Apache-2.0
基于T5-base模型在SST数据集上微调的文本生成模型
大型语言模型
Transformers
S
kennethge123
17
2
Darija To English
Apache-2.0
基于Helsinki-NLP/opus-mt-ar-en微调的阿拉伯方言拉丁字母转英语翻译模型
机器翻译
Transformers
D
centino00
34
6
Bart Large Cnn Samsum
Apache-2.0
基于BART-large架构微调的对话摘要生成模型,在SAMSum数据集上训练
文本生成
Transformers
B
AdamCodd
18
2
Inclusively Reformulation It5
基于IT5-large微调的意大利语序列到序列模型,专为包容性语言改写任务设计
机器翻译
Transformers
I
E-MIMIC
70
1
Kot5 Base
KoT5是一个基于T5架构的韩英双语文本生成模型,支持摘要生成和改写生成等任务。
大型语言模型
支持多种语言
K
wisenut-nlp-team
296
1
Autotrain Fr En Translate 51410121895
这是一个基于Transformers的法语到英语的文本翻译模型,使用AutoTrain训练。
机器翻译
Transformers
支持多种语言
A
ybanas
24
3
Bart Base Cnn Swe
MIT
基于BART架构的瑞典语摘要模型,在CNN Daily瑞典语数据集上微调
文本生成
Transformers
其他
B
Gabriel
31
1
Banglat5
BanglaT5是基于Span Corruption目标预训练的孟加拉语序列到序列变换器模型,在多项孟加拉语自然语言生成任务中达到最先进性能。
大型语言模型
Transformers
其他
B
csebuetnlp
1,102
15
It5 Base
Apache-2.0
IT5是首个针对意大利语进行大规模序列到序列Transformer模型预训练的尝试,基于T5模型架构。
大型语言模型
其他
I
gsarti
389
24
It5 Base Oscar
Apache-2.0
首个针对意大利语进行大规模序列到序列Transformer模型预训练的项目,基于OSCAR语料库训练
大型语言模型
其他
I
gsarti
19
0
It5 Small Wiki Summarization
Apache-2.0
基于WITS数据集微调的IT5 Small模型,专门用于意大利语维基百科内容的摘要生成任务。
文本生成
其他
I
gsarti
32
0
Bart Base Samsum
Apache-2.0
该模型是基于BART架构,在SAMSum对话数据集上微调的抽象文本摘要模型,专门用于生成对话摘要。
文本生成
Transformers
英语
B
lidiya
77
4
Bart Paraphrase
Apache-2.0
一个基于3个改写数据集微调的大型BART序列到序列(文本生成)模型,用于句子改写任务。
文本生成
Transformers
英语
B
eugenesiow
2,334
30
Bart Base
Apache-2.0
BART是一种结合双向编码器和自回归解码器的Transformer模型,适用于文本生成和理解任务。
大型语言模型
英语
B
facebook
2.1M
183
It5 Small
Apache-2.0
IT5是首个针对意大利语进行大规模序列到序列Transformer模型预训练的模型家族,遵循原始T5模型的方法。
大型语言模型
其他
I
gsarti
220
2
Wmt21 Dense 24 Wide X En
MIT
47亿参数的多语言编码器-解码器模型,支持7种语言到英语的翻译
机器翻译
Transformers
支持多种语言
W
facebook
17
13
It5 Large
Apache-2.0
IT5是首个针对意大利语大规模预训练的序列到序列Transformer模型家族,遵循T5模型的方法。
大型语言模型
其他
I
gsarti
37
1
M2m100 418M
MIT
M2M100是一个多语言编码器-解码器模型,支持100种语言的9900个翻译方向
机器翻译
支持多种语言
M
facebook
1.6M
299
Kobart Base V1
MIT
KoBART是基于BART架构的韩语预训练模型,适用于多种韩语自然语言处理任务。
大型语言模型
Transformers
韩语
K
gogamza
2,077
1
Bart Base Cnn
Apache-2.0
本模型是在CNN/DailyMail摘要数据集上微调的bart-base模型,擅长文本摘要生成任务
文本生成
Transformers
英语
B
ainize
749
15
Bart Squadv2
这是一个针对问答任务在SQuADv2数据集上微调的bart-large模型,基于BART架构,适用于自然语言理解和生成任务。
问答系统
Transformers
B
aware-ai
96
1
It5 Large News Summarization
Apache-2.0
基于IT5大模型在Fanpage和Il Post语料库上微调的意大利语新闻摘要模型
文本生成
其他
I
gsarti
47
1
Bart Base Chinese
面向中文理解与生成的预训练非平衡Transformer模型,支持文本到文本生成任务
大型语言模型
Transformers
中文
B
fnlp
6,504
99
Arabic T5 Small
基于T5v1.1小型架构训练的阿拉伯语语言模型,融合了多个阿拉伯语数据集进行训练
大型语言模型
阿拉伯语
A
flax-community
279
10
Bart Large Xsum Samsum
Apache-2.0
这是一个基于BART架构的序列到序列模型,专门用于对话摘要生成任务。
文本生成
Transformers
英语
B
lidiya
10.96k
38
It5 Base News Summarization
Apache-2.0
基于IT5基础模型微调的意大利语新闻摘要生成模型,支持从新闻文本中提取关键信息生成简洁摘要。
文本生成
其他
I
gsarti
405
5
Mbart Large 50 Finetuned Opus Pt En Translation
该模型是基于mBART-50大模型在opus100数据集上针对神经机器翻译(NMT)任务微调的葡萄牙语-英语翻译模型
机器翻译
Transformers
支持多种语言
M
Narrativa
126
5