多语言微调
Mt5 Small Finetuned Norwegian
Apache-2.0
基于google/mt5-small在挪威语数据集上微调的文本摘要生成模型
文本生成
Transformers
M
GloriaABK1
20
0
Cupidon Small Ro
Apache-2.0
基于sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2微调的罗马尼亚语语义理解模型,体积小巧但性能卓越
文本嵌入
Transformers
其他
C
BlackKakapo
25
2
Nllb English Somali V4.0
该模型是基于facebook/nllb-200-distilled-600M微调的英语-索马里语翻译模型,在评估集上取得了38.1的BLEU分数。
机器翻译
Transformers
N
adeptschneiderthedev
14
1
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基于google/mt5-small模型在未知数据集上微调的版本,主要用于英语到西班牙语的摘要生成任务。
文本生成
Transformers
M
kperron1
16
0
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基于google/mt5-small在亚马逊英西数据集上微调的摘要生成模型,支持英语到西班牙语的文本摘要任务。
机器翻译
Transformers
M
QHWU1228
17
0
Norwegian Nli Triplets C
Apache-2.0
基于jina-embeddings-v2-base-en微调的挪威语句子嵌入模型,专注于关键词文档搜索和句子相似度任务
文本嵌入
其他
N
fine-tuned
24
1
M2m100 1.2B Ft Ru Kbd 63K
MIT
基于facebook/m2m100_1.2B模型在俄语-卡巴尔达语数据集上微调的翻译模型
机器翻译
Transformers
其他
M
anzorq
39
1
Mbart Large 50 En Es Translation Lr 1e 05 Weight Decay 0.1
MIT
基于facebook/mbart-large-50微调的英语-西班牙语翻译模型,在评估集上表现出色。
机器翻译
Transformers
M
DrishtiSharma
20
0
Eng Guj Sim2b
基于facebook/mbart-large-50-many-to-many-mmt微调的英语-古吉拉特语翻译模型
机器翻译
Transformers
E
hopkins
4
0
Summarization Hi Mbart Large 50 Hungarian
MIT
该模型是基于mBART-large-50微调的匈牙利语摘要生成模型,专门用于生成匈牙利语文本的抽象摘要。
文本生成
Transformers
其他
S
NYTK
185
1
Mt5 Multilingual XLSum Finetuned Fa Finetuned Ar
基于mT5的多语言摘要生成模型,专门针对阿拉伯语在XLSum数据集上进行了微调
文本生成
Transformers
阿拉伯语
M
ahmeddbahaa
13
1
Mt5 Multilingual XLSum Sumarizacao PTBR
该模型是基于mT5_multilingual_XLSum在未知数据集上微调得到的葡萄牙语文本摘要模型
文本生成
Transformers
M
GiordanoB
23
2
Mt5 Multilingual XLSum Finetuned Fa
该模型是基于mT5_multilingual_XLSum在波斯语摘要数据集pn_summary上微调的生成式摘要模型
文本生成
Transformers
其他
M
ahmeddbahaa
51
2
Xlsr 53 Bemba 5hrs
Apache-2.0
基于facebook/wav2vec2-large-xlsr-53微调的语音识别模型,支持Bemba语
语音识别
Transformers
X
csikasote
25
0
Icebert Xlmr Ic3
基于RoBERTa-base架构的冰岛语掩码语言模型,通过xlm-roberta-base微调训练而成
大型语言模型
Transformers
其他
I
mideind
24
0
Mt5 Small Finetuned Amazon En Zh TW
Apache-2.0
该模型是基于google/mt5-small在亚马逊数据集上微调的文本摘要模型,支持英文到繁体中文的摘要生成任务。
文本生成
Transformers
M
peterhsu
28
0
Wav2vec2 Large Xlsr 129 Turkish Colab
基于facebook/wav2vec2-large-xlsr-129模型在通用语音数据集上微调的土耳其语语音识别模型
语音识别
Transformers
W
patrickvonplaten
16
0
Marathi Bert
MahaBERT是一个基于多语言BERT模型微调的马拉地语BERT模型,适用于处理马拉地语自然语言处理任务。
大型语言模型
Transformers
其他
M
l3cube-pune
254
0
Wav2vec2 100m Mls German Ft 2
Apache-2.0
基于facebook/wav2vec2-xls-r-100m模型在MULTILINGUAL_LIBRISPEECH - GERMAN数据集上微调的德语自动语音识别模型
语音识别
Transformers
W
patrickvonplaten
23
0
Mbart Large En Ro
MIT
基于mbart-large-cc25架构的英语-罗马尼亚语翻译模型,在wmt_en_ro数据集上微调
机器翻译
Transformers
支持多种语言
M
facebook
15.47k
1
Cross En De Roberta Sentence Transformer
MIT
一个支持英语和德语的跨语言句子嵌入模型,可用于语义文本相似性、语义搜索和释义挖掘等任务。
文本嵌入
Transformers
支持多种语言
C
T-Systems-onsite
7,305
65
Mt5 Small German Finetune Mlsum
这是一个基于mT5-small架构、在德语MLSUM数据集上微调的文本摘要生成模型
文本生成
Transformers
德语
M
ml6team
1,040
10
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基于google/mt5-small微调的英西翻译模型,专为亚马逊相关文本优化
机器翻译
Transformers
M
huggingface-course
398
7
Bert Base Multilingual Cased Finetuned Igbo
这是一个针对伊博语优化的BERT模型,通过在多语言BERT基础上微调得到,在伊博语文本处理任务中表现优于基础多语言模型。
大型语言模型
Transformers
B
Davlan
16
1
Xlm Roberta Base Finetuned Hausa
基于XLM-RoBERTa微调的豪萨语语言模型,在文本分类和命名实体识别任务上表现优于基础模型
大型语言模型
Transformers
X
Davlan
32
1
Bert Base Multilingual Cased Finetuned Swahili
基于多语言BERT模型微调的斯瓦希里语专用模型,在文本分类和命名实体识别任务上表现优于原始多语言BERT。
大型语言模型
Transformers
B
Davlan
64
3
Xlm Roberta Base Finetuned Amharic
基于XLM-RoBERTa在阿姆哈拉语文本上微调的模型,在命名实体识别任务上表现优于原始XLM-RoBERTa
大型语言模型
Transformers
X
Davlan
81
1
Xlm Roberta Base Finetuned Luganda
基于XLM-RoBERTa在卢干达语文本上微调的模型,在命名实体识别任务上表现优于基础模型
大型语言模型
Transformers
X
Davlan
23
1
Bert Base Multilingual Cased Finetuned Hausa
这是一个基于多语言BERT模型微调的豪萨语BERT模型,在文本分类和命名实体识别任务上表现优于原始多语言BERT。
大型语言模型
B
Davlan
43
1
Bert Base Multilingual Cased Finetuned Amharic
基于多语言BERT微调的阿姆哈拉语模型,通过替换词汇表并微调获得,在NER任务上优于原生多语言模型
大型语言模型
Transformers
B
Davlan
196
2
Xlm Roberta Large Finetuned Conll02 Dutch
基于XLM-RoBERTa-large模型在荷兰语CoNLL-2002数据集上微调的多语言词元分类模型
序列标注
支持多种语言
X
FacebookAI
754
4
Mbart50 Large Yor Eng Mt
基于mbart-large-50微调的约鲁巴语到英语机器翻译模型
机器翻译
Transformers
M
Davlan
24
0
Translation Mt5 Small 128 En Hu
Apache-2.0
基于mT5-small微调的英匈神经机器翻译模型,在OPUS语料库上训练
机器翻译
Transformers
支持多种语言
T
NYTK
35
2