低学习率优化
32b Glm4 Dans Personality Engine V1.3.0 TestArticle 1
MIT
基于THUDM/GLM-4-32B-Base-0414模型在Dans-DiscountModels/pretokenization-test-4数据集上微调的大语言模型
大型语言模型
Transformers
3
Dans-DiscountModels
38
2
Videomae Base Finetuned 1e 08 Bs4 Ep2
基于MCG-NJU/videomae-base微调的视频理解模型,在未知数据集上进行了训练
视频处理
Transformers
V
EloiseInacio
14
0
Mnist Demo3
MIT
一个基于PyTorch和Diffusers库的扩散模型,用于无条件生成手写数字的黑白图像。
图像生成
M
BackTo2014
32
0
Florence 2 DocVQA
基于微软Florence-2模型使用Docmatix数据集(5%数据量)微调1天的版本,适用于图像文本理解任务
文本生成图像
Transformers
F
impactframes
30
1
Retrocomicflux
Openrail
基于公共领域图像训练的Flux LoRA模型,专长于复古漫画风格的人物描绘
图像生成
R
renderartist
469
37
Florence 2 DocVQA
这是微软Florence-2模型使用Docmatix数据集(5%数据量)以1e-6学习率微调1天后的版本
文本生成图像
Transformers
F
HuggingFaceM4
3,096
60
Mbart Large 50 En Es Translation Lr 1e 05 Weight Decay 0.1
MIT
基于facebook/mbart-large-50微调的英语-西班牙语翻译模型,在评估集上表现出色。
机器翻译
Transformers
M
DrishtiSharma
20
0
Mbart Large 50 En Es Translation Lr 1e 05 Weight Decay 0.01
MIT
基于facebook/mbart-large-50微调的英语到西班牙语翻译模型,在评估集上取得了45.09的BLEU分数。
机器翻译
Transformers
M
DrishtiSharma
16
0
Mbart Large 50 En Es Translation Lr 1e 05 Weight Decay 0.0
MIT
该模型是基于facebook/mbart-large-50微调的英语到西班牙语翻译模型,在评估集上取得了45.03的BLEU分数。
机器翻译
Transformers
M
DrishtiSharma
27
0
Vit Model
Apache-2.0
基于google/vit-base-patch16-224-in21k在beans数据集上微调的视觉Transformer模型
图像分类
Transformers
V
santiagoahl
13
0
Mt5 Base Turkish Summarization
Apache-2.0
基于google/mt5-base在mlsum/tu数据集上微调的土耳其语文本摘要模型
文本生成
Transformers
M
mukayese
249
6
Cb
BERT是一种基于Transformer架构的预训练语言模型,由Google开发。
文本分类
Transformers
C
kangnichaluo
14
0
Distilbert Token Itr0 1e 05 All 01 03 2022 14 33 33
Apache-2.0
该模型是基于DistilBERT在未指定数据集上微调的版本,主要用于文本分类任务。
大型语言模型
Transformers
D
ali2066
15
0
Mrc Pretrained Roberta Large 1
KLUE-RoBERTa-large是基于RoBERTa架构的韩语预训练语言模型,由韩国研究团队开发,针对韩语自然语言处理任务进行了优化。
大型语言模型
Transformers
M
this-is-real
14
0
Mnli 1
BERT是一种基于Transformer架构的预训练语言模型,由Google开发。
文本分类
Transformers
M
kangnichaluo
14
0