小样本微调
Swf Trained Model
Apache-2.0
该模型是基于mukesh3444/window_detection_model在nagarajuthirupathi/indoor_window_detection_swf数据集上微调的图像分割模型,专注于室内窗户检测任务。
图像分割
Transformers
S
nagarajuthirupathi
132
0
Logoiconemojimoe V0.2 FLUX.1 Dev LoRA
其他
基于FLUX.1-dev模型的LoRA适配器,专为生成标志、图标和表情符号设计,支持微软FluentUI风格等多种3D渲染效果。
图像生成
L
Borcherding
282
1
Bge Base En V1.5 Course Recommender V5
这是一个从BAAI/bge-base-en-v1.5微调而来的sentence-transformers模型,能将句子和段落映射到768维的密集向量空间。
文本嵌入
B
datasocietyco
15.87k
1
Plushies
Openrail
这是一个基于Flax框架的文本生成图像模型,专门用于生成毛绒玩具风格的图像。
文本生成图像
英语
P
camenduru
19
22
Segformer B0 Finetuned Morphpadver1 Hgo Coord
其他
基于nvidia/mit-b0微调的图像分割模型,在NICOPOI-9/morphpad_coord_hgo_512_4class数据集上表现优异
图像分割
Transformers
S
NICOPOI-9
98
0
Test With Sdfvd
基于MCG-NJU/videomae-base微调的视频理解模型,在评估集上表现一般(准确率50%)
视频处理
Transformers
T
cocovani
16
0
Videomae Base Finetuned 1e 08 Bs4 Ep2
基于MCG-NJU/videomae-base微调的视频理解模型,在未知数据集上进行了训练
视频处理
Transformers
V
EloiseInacio
14
0
Finetuning Sentiment Model 3000 Samples
Apache-2.0
基于distilbert-base-uncased微调的情感分析模型,在评估集上准确率达87.67%
文本分类
Transformers
F
mayank15122000
111
1
Nuke X Gemma3 1B Reasoner Testing
Apache-2.0
基于Google Gemma-3-1B优化的推理增强模型,通过GRPO算法和高质量数据集提升逻辑推理能力
大型语言模型
Transformers
英语
N
NuclearAi
77
2
Learn Hf Food Not Food Text Classifier Distilbert Base Uncased
Apache-2.0
基于DistilBERT的文本分类模型,用于区分食品与非食品文本
文本分类
Transformers
L
HimanshuGoyal2004
70
1
Finetuned ViT Model
MIT
基于DETR-ResNet50架构微调的安全帽检测模型,专为工业场景设计
目标检测
Transformers
英语
F
bnina-ayoub
21
1
Light R1 32B DS
Apache-2.0
Light-R1-32B-DS是一款近SOTA水平的32B数学模型,基于DeepSeek-R1-Distill-Qwen-32B微调,仅使用3K SFT数据即实现高性能。
大型语言模型
Transformers
L
qihoo360
1,136
13
Tunisian TTS
基于突尼斯自定义数据集微调的XTTS V2文本转语音模型
语音合成
阿拉伯语
T
amenIKh
48
2
Finetuning Sentiment Model 3000 Samples 1
Apache-2.0
基于distilbert-base-uncased微调的情感分析模型,在评估集上准确率达到85.67%
文本分类
Transformers
F
nayaksaroj
23
1
Ddpm Fewshot Anime Face
MIT
基于DDPM架构的扩散模型,用于生成卡通风格的角色头像
图像生成
D
xchuan
25
1
Granite Timeseries Ttm R2
Apache-2.0
TinyTimeMixers(TTMs)是由IBM Research开源的多变量时间序列预测紧凑型预训练模型,参数从100万起,首次提出时间序列预测领域的'微型'预训练模型概念。
气候模型
Safetensors
G
ibm-granite
217.99k
89
Florence 2 DocVQA
基于微软Florence-2模型使用Docmatix数据集(5%数据量)微调1天的版本,适用于图像文本理解任务
文本生成图像
Transformers
F
impactframes
30
1
Clip Fine Tuned Satellite
MIT
基于CLIP模型在UC_Merced卫星图像数据集上微调的版本,准确率达96.9%
图像分类
Transformers
C
NemesisAlm
30
1
Urdu Text To Speech Tts
MIT
基于microsoft/speecht5_tts微调的乌尔都语TTS模型,训练数据量较小(4200句),商用需重新训练
语音合成
Transformers
其他
U
HamzaSidhu786
46
2
Florence 2 DocVQA
这是微软Florence-2模型使用Docmatix数据集(5%数据量)以1e-6学习率微调1天后的版本
文本生成图像
Transformers
F
HuggingFaceM4
3,096
60
Paligemma Vqav2
该模型是基于google/paligemma-3b-pt-224在VQAv2数据集的一小部分上进行微调的版本,专注于视觉问答任务。
文本生成图像
Transformers
P
merve
168
13
Kosmos 2 PokemonCards Trl Merged
这是一个基于微软Kosmos-2模型微调的多模态模型,专门用于识别宝可梦卡牌中的宝可梦名称。
图像生成文本
Transformers
英语
K
Mit1208
51
1
Llama 3 8b Patent Small Dataset
其他
基于Meta-Llama-3-8B-Instruct在16,000条韩文专利的小型数据集英文翻译版本上进行微调的模型,仅供测试用途。
大型语言模型
Transformers
英语
L
kimhyeongjun
17
4
Finetuned Clothes
Apache-2.0
基于Google的ViT模型微调的服装分类模型,支持7种服装类别的图像分类
图像分类
Transformers
F
samokosik
50
2
Gemma 1.1 7b It Fictional Chinese V1
基于google/gemma-1.1-7b-it在generator数据集上微调的中文语言模型
大型语言模型
Transformers
G
yzhuang
21
1
Intent Classifier
基于Flan-T5-Base微调的意图分类模型,用于将客户问题归类到预定义类别
文本分类
Transformers
I
Serj
364
4
Detr Resnet 101 Dc5 Sku110k
Apache-2.0
这是一个基于DETR架构的目标检测模型,使用ResNet-101-DC5作为骨干网络,在SKU110K数据集上训练,查询数设置为400。
目标检测
Transformers
D
isalia99
129
0
Videomae Base Finetuned Subset
基于MCG-NJU/videomae-base模型在未知数据集上微调的视频理解模型,准确率达67.13%
视频处理
Transformers
V
Joy28
2
0
Mms Spa Finetuned Colombian Monospeaker
这是一个基于MMS的西班牙语TTS模型,使用VITS架构微调,仅需80-150个样本和20分钟训练时间即可生成哥伦比亚口音的西班牙语语音。
语音合成
Transformers
西班牙语
M
ylacombe
71
1
Mms Spa Finetuned Argentinian Monospeaker
这是一个基于MMS西班牙语版本的微调模型,采用VITS架构构建,仅用80至150个样本在约20分钟内完成训练。
语音合成
Transformers
西班牙语
M
ylacombe
88
3
Distil Ast Audioset Finetuned Cry
Apache-2.0
基于bookbot/distil-ast-audioset模型在DonateACry数据集上微调的音频分类模型,用于识别婴儿哭声
音频分类
Transformers
D
jstoone
76
1
Blip Image Captioning Base Test Sagemaker Tops 3
Bsd-3-clause
该模型是基于Salesforce的BLIP图像描述生成基础模型在SageMaker平台上微调的版本,主要用于图像描述生成任务。
图像生成文本
Transformers
B
GHonem
13
0
Model3
MIT
基于naver-clova-ix/donut-base-finetuned-cord-v2微调的文档图像理解模型
图像生成文本
Transformers
M
sunilsai
13
0
Abap Nous Hermes
Apache-2.0
这是一个基于Llama-2-7b-chat-hf微调的ABAP编程语言模型,专门用于生成ABAP代码
大型语言模型
Transformers
英语
A
smjain
51
1
Segformer Finetuned Ihc
其他
基于nvidia/mit-b0模型在Isaacks/ihc_slide_tissue数据集上微调的图像分割模型
图像分割
Transformers
S
Isaacks
14
0
Donut Base Sroie
MIT
基于naver-clova-ix/donut-base在图像文件夹数据集上微调的模型,具体用途未明确说明
文字识别
Transformers
D
iamkhadke
13
0
Digit Mask Data2vec Audio Base 960h Ft
Apache-2.0
基于data2vec-audio-base-960h微调的音频数字识别模型,在数字掩码增强数据集上表现出色
音频分类
Transformers
D
mazkooleg
14
0
Digit Mask Unispeech Sat Base Ft
基于microsoft/unispeech-sat-base微调的语音处理模型,专注于数字掩码任务,在评估集上表现出色。
语音识别
Transformers
D
mazkooleg
25
0
Swinv2 Tiny Patch4 Window8 256 Finetuned THFOOD 50
该模型是基于Swin Transformer V2架构在THFOOD-50泰国食物数据集上微调的视觉分类模型,专门用于泰国食物的图像识别。
图像分类
Transformers
S
thean
30
2
All Format
MIT
基于philschmid/donut-base-sroie微调的模型,适用于图像处理任务
文字识别
Transformers
A
dreeven
17
0