Vit Beans
Apache-2.0
基于google/vit-base-patch16-224-in21k在beans数据集上微调的视觉Transformer模型,用于图像分类任务
图像分类
Transformers

V
SangjeHwang
17
1
My Trash Classification
使用Hugging Face预训练视觉变换器(ViT)模型实现的图像分类方案,可将图像分为六类垃圾
图像分类
Transformers

M
tribber93
259
1
UL Exterior Classification
Apache-2.0
基于Google的ViT-base-patch16-224模型微调而成的图像分类模型,在评估集上准确率为68.97%
图像分类
Transformers

U
sharmajai901
319
1
Brand Identification
MIT
该模型是基于谷歌视觉变换器(ViT)微调的标志识别模型,专门用于分类阿联酋公司标志。
图像分类
Transformers

英语
B
Falconsai
478
1
Clip Vit Base Patch32 Stanford Cars
基于CLIP视觉变换器架构,在斯坦福汽车数据集上微调的视觉分类模型
图像分类
Transformers

C
tanganke
4,143
1
Bhutanese Textile Model
Apache-2.0
基于Google的ViT模型微调的不丹纺织品图像分类模型
图像分类
Transformers

B
Dalaix703
50
1
Nsfw Image Detector
Apache-2.0
基于Google Vision Transformer微调的NSFW(不适宜工作场所)内容检测模型,可识别5类图像内容
图像分类
Transformers

N
LukeJacob2023
68.26k
17
Celebrity Classifier
Apache-2.0
基于Google Vision Transformer (ViT)架构的名人分类模型,用于识别1000位顶级名人
图像分类
Transformers

C
tonyassi
394
5
Vit Base Blur
Apache-2.0
该模型是基于google/vit-base-patch16-224-in21k在模糊图像数据集上微调的版本,用于区分模糊图像和清晰图像。
图像分类
Transformers

V
WT-MM
92
6
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
基于Google的ViT-Base-Patch16-224模型在花卉图像数据集上微调的视觉Transformer模型
图像分类
Transformers

V
adamtky
15
0
Platzi Vit Model Mewita
Apache-2.0
基于Google的ViT模型在豆类数据集上微调的图像分类模型,准确率达97.74%
图像分类
Transformers

P
platzi
15
0
Histo Train
Apache-2.0
基于google/vit-base-patch16-224微调的图像分类模型,适用于组织学图像分析任务。
图像分类
Transformers

H
tcvrishank
36
0
Fun
Apache-2.0
基于google/vit-base-patch16-224微调的视觉模型,适用于图像分类任务
图像分类
Transformers

F
tcvrishank
16
0
Vit Base Letter
Apache-2.0
基于Google的ViT基础模型在字母识别数据集上微调的图像分类模型,准确率达98.81%
图像分类
Transformers

英语
V
pittawat
93
2
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
基于Google的ViT模型在花卉图像数据集上微调的视觉Transformer模型
图像分类
Transformers

V
CHAOYUYD
35
0
Vit Base Beans
Apache-2.0
该模型是基于Google的ViT-base模型在beans数据集上微调得到的图像分类模型,准确率达98.5%。
图像分类
Transformers

V
leejw51
20
1
Multilabel V3
Apache-2.0
基于google/vit-base-patch16-224-in21k微调的多标签分类模型,准确率为73.7%
图像分类
Transformers

M
Madronus
19
0
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
基于Google Vision Transformer (ViT)模型在花卉图像数据集上微调的视觉分类模型
图像分类
Transformers

V
chanelcolgate
18
0
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
基于Google的ViT模型在花卉图像数据集上微调的视觉Transformer模型
图像分类
Transformers

V
smakubi
35
1
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
基于Google的ViT模型在花卉图像数据集上微调的视觉Transformer模型,适用于图像分类任务
图像分类
Transformers

V
Barghi
35
0
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
基于Google的ViT模型在花卉图像数据集上微调的视觉Transformer模型,适用于图像分类任务
图像分类
Transformers

V
RicardC
17
0
Vit Base Patch16 224 Finetuned Eurosat
Apache-2.0
基于 Google 的 ViT 基础架构,在 EuroSAT 遥感图像数据集上微调的图像分类模型
图像分类
Transformers

V
sabhashanki
18
0
My Awesome Food Model
Apache-2.0
基于Google的ViT模型在food101数据集上微调的食品分类模型
图像分类
Transformers

M
jinkasreedhar
16
0
My Food Model
Apache-2.0
基于Google Vision Transformer (ViT)架构的食品图像分类模型,在Food101数据集上微调,准确率达90.9%
图像分类
Transformers

M
iammartian0
18
0
Fl Image Category Multi Label
Apache-2.0
这是一个基于Google的ViT模型进行微调的图像分类模型,在fl_image_category_ds数据集上训练,准确率达到66.22%。
图像分类
Transformers

F
StephenSKelley
17
1
My Awesome Food Model
Apache-2.0
这是一个基于Google的ViT模型在food101数据集上微调的食物分类模型,准确率达到89.5%。
图像分类
Transformers

M
luigg
17
0
Vit Base Patch16 224 Finetuned Algae Wirs
Apache-2.0
该模型是基于Google的ViT模型在藻类数据集上微调的视觉分类模型,主要用于藻类图像分类任务。
图像分类
Transformers

V
samitizerxu
20
0
Vit Base Patch16 224 Finetuned Chest
Apache-2.0
基于Google的ViT模型在胸部图像数据集上微调的图像分类模型,准确率达99%
图像分类
Transformers

V
adielsa
37
0
Vit Model Beimer
Apache-2.0
该模型是基于Google的ViT-base-patch16-224-in21k在beans数据集上微调的图像分类模型,准确率达98.5%。
图像分类
Transformers

V
tadeous
39
0
Cristian Vit
Apache-2.0
该模型是基于Google的ViT架构在豆类数据集上微调的图像分类模型,在验证集上取得了100%的准确率。
图像分类
Transformers

C
agudelozc
40
0
Vit Model1
Apache-2.0
基于Google的ViT模型在beans数据集上微调的图像分类模型,准确率达97.74%
图像分类
Transformers

V
fernando232s
19
0
Genderage2
Apache-2.0
基于ViT架构的视觉Transformer模型,用于性别和年龄分类任务
图像分类
Transformers

G
ivensamdh
263
3
Google Vit Base Patch16 224 Cartoon Face Recognition
Apache-2.0
基于Google Vision Transformer (ViT)架构微调的卡通人脸识别模型,在图像分类任务上表现优异
人脸相关
Transformers

G
jayanta
62
2
My Awesome Food Model
Apache-2.0
基于ViT架构的食品图像分类模型,在Food101数据集上微调,准确率达89.7%
图像分类
Transformers

M
asd0936
38
0
Vit Base Beans
Apache-2.0
该模型是基于Google的ViT架构在beans数据集上微调的图像分类模型,准确率达到97.74%。
图像分类
Transformers

V
naveensb8182
22
0
Vit Base Patch16 224 In21k Male Or Female Eyes
Apache-2.0
这是一个基于ViT架构的二元分类模型,用于区分男性和女性的眼睛图像。
图像分类
Transformers

英语
V
DunnBC22
37
1
Vit Base Patch16 224 In21k GI Diagnosis
Apache-2.0
基于ViT架构的胃肠道图像分类模型,用于从结肠镜检查图像中诊断多种病症
图像分类
Transformers

英语
V
DunnBC22
22
1
Vit Fire Detection
Apache-2.0
基于google/vit-base-patch16-224-in21k微调的视觉Transformer模型,专注于火焰检测任务,在评估集上表现出高精确率和召回率。
图像分类
Transformers

V
EdBianchi
1,851
6
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
基于Google的ViT模型在花卉图像数据集上微调的视觉Transformer模型
图像分类
Transformers

V
jonathanfernandes
48
0
Spoofing Vit 16 224
Apache-2.0
基于ViT架构的图像防伪检测模型,在未知数据集上微调后准确率达70.88%
图像分类
Transformers

S
venuv62
59
0
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文