多任务预训练
Tarsier 34b
Apache-2.0
Tarsier-34b 是一个开源的大规模视频语言模型,专注于生成高质量的视频描述,并在多个公开基准测试中取得领先成绩。
视频生成文本
Transformers
T
omni-research
103
17
All Indo E5 Small V4
这是一个基于sentence-transformers的印尼语文本嵌入模型,能将句子和段落映射到384维稠密向量空间,适用于聚类和语义搜索等任务。
文本嵌入
Transformers
A
LazarusNLP
3,039
7
Nepberta
这是一个针对尼泊尔语的预训练语言模型,研究成果已被第二届亚太计算语言学协会会议暨第十二届自然语言处理国际联合会议(2022)收录。
大型语言模型
Transformers
N
NepBERTa
618
11
Mtl Data To Text
Apache-2.0
MTL-data-to-text模型专为数据到文本生成任务设计,通过混合标注的数据到文本数据集进行监督预训练。
文本生成
Transformers
支持多种语言
M
RUCAIBox
147
28
Mtl Summarization
Apache-2.0
MTL-摘要模型是一个专为摘要任务设计的文本生成模型,通过混合多个标注摘要数据集进行监督预训练。
文本生成
Transformers
支持多种语言
M
RUCAIBox
13
0
T5 Arabic Small
Apache-2.0
专为阿拉伯语和英语任务定制的T5模型,体积更小且针对特定语言优化。
大型语言模型
Transformers
T
bakrianoo
20
1
T5 Arabic Base
Apache-2.0
这是一个针对阿拉伯语和英语任务定制的T5模型,可作为google/mt5-base模型的替代方案,体积更小且专注于阿拉伯语和英语相关任务。
大型语言模型
Transformers
T
bakrianoo
635
0
S BioBert Snli Multinli Stsb
这是一个基于sentence-transformers的模型,能够将句子和段落映射到768维的密集向量空间,适用于句子相似度计算、语义搜索等任务。
文本嵌入
Transformers
S
pritamdeka
987
7
Unispeech 1350 En 90 It Ft 1h
UniSpeech是一个统一的语音表征学习模型,结合了监督式音素CTC学习和自监督学习,特别针对意大利语进行了微调。
语音识别
Transformers
其他
U
microsoft
19
0
Tibert Base
这是一个针对提格里尼亚语预训练的BERT基础模型,在4000万词符的数据集上进行了40轮预训练。
大型语言模型
其他
T
fgaim
28
1
Unispeech 1350 En 353 Fr Ft 1h
UniSpeech是一个统一的语音表征学习模型,结合有标注和无标注数据进行预训练,特别针对法语进行了微调。
语音识别
Transformers
法语
U
microsoft
20
0
Code Trans T5 Small Code Comment Generation Java Multitask
基于T5-small架构的Java代码注释生成模型,支持多任务训练,适用于Java函数文档自动生成
文本生成
C
SEBIS
17
0
Code Trans T5 Base Code Documentation Generation Python Multitask Finetune
基于T5架构的Python代码文档生成模型,经过多任务预训练和微调,专门用于生成Python函数的描述文档
文本生成
C
SEBIS
26
1
Code Trans T5 Base Code Documentation Generation Go Multitask Finetune
基于T5架构的Go语言代码文档生成模型,经过多任务预训练和微调,专门用于生成Go函数/方法的描述文档。
文本生成
C
SEBIS
15
0
Code Trans T5 Large Source Code Summarization Csharp Multitask
基于T5-large架构的预训练模型,专注于C#编程语言的源代码摘要生成任务
大型语言模型
C
SEBIS
23
0
Code Trans T5 Large Code Documentation Generation Java Multitask
基于T5大型架构的Java代码文档生成模型,支持多任务训练,擅长生成Java函数描述
大型语言模型
C
SEBIS
13
0
Code Trans T5 Base Code Documentation Generation Java Multitask
基于T5架构的预训练模型,专门用于生成Java函数文档,支持多任务处理
文本生成
C
SEBIS
57
1
Code Trans T5 Large Code Comment Generation Java Multitask Finetune
基于T5-large架构的预训练模型,专门用于生成Java函数/方法的代码注释文档
大型语言模型
C
SEBIS
22
0
Code Trans T5 Large Source Code Summarization Python Multitask Finetune
基于T5-large架构的预训练模型,专为Python代码摘要生成任务设计,支持多任务学习
文本生成
C
SEBIS
78
13
Code Trans T5 Small Api Generation Multitask Finetune
基于t5 small架构预训练的Java API推荐生成模型,通过多任务训练和微调优化
大型语言模型
C
SEBIS
22
0
Rubert Base Cased
RuBERT是基于俄语维基百科和新闻数据训练的俄语BERT模型,具有1.8亿参数,支持掩码语言建模和下一句预测任务。
大型语言模型
其他
R
DeepPavlov
275.78k
106
Code Trans T5 Base Api Generation Multitask Finetune
基于T5架构的预训练模型,专为Java API推荐生成任务设计,通过多任务训练优化性能
大型语言模型
C
SEBIS
16
0
Code Trans T5 Small Api Generation Multitask
基于T5小型架构的多任务预训练模型,专注于为Java编程任务生成API使用建议
大型语言模型
C
SEBIS
25
1
Code Trans T5 Base Code Comment Generation Java Multitask Finetune
基于T5架构的Java代码注释生成模型,通过多任务预训练和微调优化,专门用于为Java函数生成描述性文本。
大型语言模型
C
SEBIS
16
0
Code Trans T5 Small Source Code Summarization Python Multitask Finetune
基于T5小型架构的Python代码摘要生成模型,支持多任务学习
文本生成
C
SEBIS
143
0
Code Trans T5 Small Code Documentation Generation Go Multitask
基于T5-small架构的Go语言代码文档生成模型,支持多任务处理
文本生成
C
SEBIS
17
0
Code Trans T5 Large Code Documentation Generation Python Multitask
基于T5-large架构的Python代码文档生成模型,支持多任务处理
文本生成
C
SEBIS
91
5
Code Trans T5 Base Source Code Summarization Python Multitask
基于T5架构的预训练模型,专为Python代码摘要生成设计,支持多任务处理
大型语言模型
C
SEBIS
57
1