多指标评估
Bert Practice Classifier
Apache-2.0
基于distilbert-base-uncased微调的文本分类模型,在特定任务上进行了训练。
文本分类
Transformers
B
RayenLLM
181
1
Auramask Ensemble Moon
Gpl-3.0
该模型使用改进的vnet架构进行2D图像处理,专注于图像到图像的转换任务,具有对抗性和美学优化特性。
图像生成
A
logasja
17
0
Finetune Embedding All MiniLM L6 V2 Geotechnical Test V4
一个用于句子相似度计算的预训练模型,能够将句子转换为高维向量空间中的嵌入表示,并计算它们之间的语义相似度。
文本嵌入
F
GbrlOl
20
1
Giga Embeddings Instruct
MIT
Giga Embeddings Instruct 是一个高性能的嵌入模型,专注于文本分类和检索任务,在多个基准测试中表现出色。
文本嵌入
支持多种语言
G
ai-sage
11.97k
46
Hubert Uk
基于mHuBERT-147基础模型训练的乌克兰语自动语音识别模型,支持乌克兰语语音转文本任务。
语音识别
其他
H
Yehor
31
4
ESG Classification En
MIT
一个专注于ESG(环境、社会与治理)领域的文本分类模型,用于分析企业报告中的可持续发展相关内容。
文本分类
Transformers
英语
E
cea-list-lasti
331
4
Case Analysis InLegalBERT
MIT
基于InLegalBERT微调的法律案例分析模型,专注于法律文本处理任务
文本分类
Transformers
C
cite-text-analysis
18
1
Med T5 Summ Ru
用于俄语生物医学文本抽象摘要生成的序列到序列模型
文本生成
Transformers
其他
M
sacreemure
27
0
T5 Small Aslg Pc12
Apache-2.0
该模型是在aslg_pc12数据集上对t5-small进行微调的版本,主要用于手语翻译任务。
机器翻译
Transformers
T
HamdanXI
22
0
OPT PET Impression
这是一个基于BERT的医学文本摘要模型,支持英文文本处理,适用于医学文献和报告的自动摘要生成。
文本生成
Transformers
英语
O
xtie
15
0
Opus Mt Ko En Korean Parallel Corpora
Apache-2.0
该模型是基于Helsinki-NLP/opus-mt-ko-en微调的韩英翻译模型,使用Korean Parallel Corpora数据集进行训练。
机器翻译
Transformers
支持多种语言
O
DunnBC22
17
4
Codebert Base Malicious URLs
基于microsoft/codebert-base微调的恶意网址检测模型,用于多分类任务
文本分类
Transformers
英语
C
DunnBC22
1,308
9
Wav2vec2 Base Speech Emotion Recognition
Apache-2.0
基于facebook/wav2vec2-base微调的语音情感识别模型,用于预测音频样本中说话者的情感。
音频分类
Transformers
英语
W
DunnBC22
128
13
Cvt 13 384 In22k FV Finetuned Memes
Apache-2.0
基于microsoft/cvt-13-384-22k在图像文件夹数据集上微调的图像分类模型,在评估集上准确率达到83.46%
图像分类
Transformers
C
jayanta
11
0
Randeng T5 784M QA Chinese
首个中文生成式问答预训练T5模型,基于悟道180G语料预训练并在中文SQuAD和CMRC2018数据集上微调
问答系统
Transformers
中文
R
IDEA-CCNL
166
32
Arat5 Base Finetune Ar Xlsum
基于AraT5-base模型在阿拉伯语摘要数据集xlsum上微调的抽象摘要模型
文本生成
Transformers
阿拉伯语
A
ahmeddbahaa
15
0
Bert Base German Cased Finetuned Subj V3
MIT
基于bert-base-german-cased微调的德语文本分类模型
文本分类
Transformers
B
tbosse
15
0
Longformer Finetuned Norm
基于allenai/longformer-base-4096微调的模型,适用于长文本处理任务
大型语言模型
Transformers
L
brad1141
75
0
Distilbert Base Uncased Finetuned Combinedmodel1 Ner
Apache-2.0
该模型是基于distilbert-base-uncased在特定数据集上微调的版本,主要用于命名实体识别(NER)任务。
序列标注
Transformers
D
akshaychaudhary
15
0
Matscibert
MIT
MatSciBERT是一个基于BERT架构的预训练语言模型,专门针对材料科学领域的文本挖掘和信息提取任务进行优化。
大型语言模型
Transformers
英语
M
m3rg-iitd
11.98k
19
Xls R 1B Te
Apache-2.0
基于facebook/wav2vec2-xls-r-1b在OPENSLR_SLR66-NA数据集上微调的泰卢固语语音识别模型,支持自动语音识别任务。
语音识别
Transformers
其他
X
chmanoj
18
0
T5 Base Squad Qg Ae
基于T5-base微调的联合问题生成与答案抽取模型,支持英语文本处理
问答系统
Transformers
英语
T
lmqg
56
0
Indo Roberta Indonli
MIT
基于Indo-roberta模型的印尼语自然语言推理分类器,使用IndoNLI数据集训练
文本分类
Transformers
其他
I
StevenLimcorn
34
1