低样本学习
E.star.7.b
Apache-2.0
基于Mistral架构的7B参数大语言模型,使用Unsloth和TRL库高效训练,在多项基准测试中表现优异。
大型语言模型
Transformers
英语
E
liminerity
86
2
Mistral Orpo Beta
MIT
Mistral-ORPO-β是基于Mistral-7B使用ORPO方法微调的7B参数语言模型,无需监督微调预热阶段即可直接学习偏好。
大型语言模型
Transformers
英语
M
kaist-ai
18
38
Strangemerges 17 7B Dare Ties
Apache-2.0
StrangeMerges_17-7B-dare_ties是通过LazyMergekit合并的两个模型Gille/StrangeMerges_16-7B-slerp和Gille/StrangeMerges_12-7B-slerp的产物,采用
大型语言模型
Transformers
S
Gille
20
1
Galactica 6.7B EssayWriter
基于Galactica架构的67亿参数大语言模型,专注于文章写作任务,在开放大语言模型排行榜中平均得分37.75。
大型语言模型
Transformers
G
KnutJaegersberg
105
4
Videomae Base Finetuned Accident Video Subset
该模型是基于MCG-NJU/videomae-base在交通事故视频数据集上微调的版本,主要用于视频分类任务。
视频处理
Transformers
V
pavitemple
98
2
Vit Mlo 512 Birads
基于Vision Transformer架构的图像分类模型,针对BIRADS分类任务进行了微调
图像分类
Transformers
V
mm-ai
37
0
Micse
Apache-2.0
miCSE是一个专为句子相似度计算而设计的低样本量句子嵌入模型,通过注意力模式对齐和正则化自注意力分布实现高效的样本学习。
文本嵌入
Transformers
英语
M
sap-ai-research
30
8
UCF Crime
Apache-2.0
该模型是基于google/vit-base-patch16-224在imagefolder数据集上微调的版本,适用于视觉任务。
图像分类
Transformers
U
csr2000
46
2
Resnet 18 Finetuned Eurosat
Apache-2.0
基于ResNet-18架构在EuroSAT数据集上微调的图像分类模型
图像分类
Transformers
R
amyeroberts
14
0
Rare Puppers
这是一个用于识别稀有犬种的图像分类模型,准确率为64.44%。
图像分类
Transformers
R
meame2010
14
0