Openba V1 Based
Apache-2.0
OpenBA 是一个开源的 150 亿参数双语非对称序列到序列模型,从头开始预训练。
大型语言模型
Transformers

支持多种语言
O
OpenNLG
94
10
Question Decomposer T5
这是一个基于T5-base的序列到序列模型,专门用于将复杂问题分解为多个子问题。
文本生成
英语
Q
thenHung
317
4
Romaneng2nep V3
Apache-2.0
该模型是基于google/mt5-small微调的罗马化尼泊尔语到尼泊尔语文本的转换模型
机器翻译
Transformers

支持多种语言
R
syubraj
29
1
Flan T5 Base Samsum
Apache-2.0
该模型是基于google/flan-t5-base在samsum对话摘要数据集上微调的版本,专门用于生成对话摘要任务。
文本生成
Transformers

F
sharmax-vikas
26
0
Sanskrit To English
Apache-2.0
基于T5-small微调的梵语-英语翻译模型,在itihasa数据集上训练
机器翻译
Transformers

S
ubermenchh
81
2
T5 Small Aslg Pc12
Apache-2.0
该模型是在aslg_pc12数据集上对t5-small进行微调的版本,主要用于手语翻译任务。
机器翻译
Transformers

T
HamdanXI
22
0
Indobart V2 Amr To Text Linearized Penman Ilmy Epochs 3 With Lemma And Upos And Voice
MIT
该模型是基于indobenchmark/indobart-v2微调的版本,用于AMR到文本的转换任务。
大型语言模型
Transformers

I
abdiharyadi
46
1
Reastap Large Finetuned Wikisql
ReasTAP是基于表格推理的预训练模型,通过合成推理示例注入表格推理技能,在WikiSQL数据集上进行了微调。
问答系统
Transformers

英语
R
Yale-LILY
27
1
Bart Large Xsum Finetuned Samsum V2
MIT
该模型是基于facebook/bart-large-xsum在samsum数据集上微调的文本摘要生成模型,擅长生成对话摘要。
文本生成
Transformers

B
amagzari
48
1
Marian Finetuned Kde4 En To Ja
Apache-2.0
基于Helsinki-NLP/opus-tatoeba-en-ja在kde4数据集上微调的英日翻译模型
机器翻译
Transformers

M
Hoax0930
43
0
M2m100 418M Finetuned Kde4 En To Pt BR
MIT
该模型是基于facebook/m2m100_418M在kde4数据集上微调的英语到巴西葡萄牙语翻译模型
机器翻译
Transformers

M
danhsf
6,528
1
It5 Efficient Small El32 News Summarization
Apache-2.0
基于IT5高效小型EL32架构的意大利语新闻摘要生成模型,在Fanpage和Il Post数据集上微调
文本生成
其他
I
gsarti
97
4
Marian Finetuned Kde4 En To Fr
Apache-2.0
该模型是基于Helsinki-NLP/opus-mt-en-fr在kde4数据集上微调的英法翻译模型,在评估集上取得了52.94的BLEU分数。
机器翻译
Transformers

M
huggingface-course
55
5
Marian Finetuned Kde4 En To Zh TW
Apache-2.0
该模型是基于Helsinki-NLP/opus-mt-en-zh在kde4数据集上微调的英译繁中翻译模型,Bleu分数达39.0863。
机器翻译
Transformers

M
peterhsu
38
2
T5 Small Finetuned En To Ro Dataset 20 Input 64
Apache-2.0
基于T5-small模型在wmt16数据集上微调的英语到罗马尼亚语翻译模型
机器翻译
Transformers

T
aretw0
14
0
Squad Mbart Model
基于未知数据集从头开始训练的mbart模型,具体用途和特性需进一步补充
问答系统
Transformers

S
ZYW
18
0
Gpt2 Chinese Couplet
基于GPT2架构的中文对联生成模型,由UER-py框架预训练,支持生成符合传统对联格式的中文文本。
文本生成
中文
G
uer
491
10
T5 Small Finetuned En To Ro Epoch.04375
Apache-2.0
该模型是基于T5-small架构在wmt16数据集上微调的英语到罗马尼亚语翻译模型
机器翻译
Transformers

T
aretw0
16
0
Tts Hubert Cluster Bart Base
Apache-2.0
基于HuBERT和BART架构的语音处理模型,支持自动语音识别(ASR)任务
语音识别
Transformers

支持多种语言
T
voidful
24
1
Sber Rut5 Filler
Apache-2.0
这是一个支持俄语的文本处理模型,主要用于文本生成和文本补全任务。
大型语言模型
Transformers

其他
S
IlyaGusev
19
3
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文