Vit Large Patch32 384 Melanoma
Apache-2.0
基于Google的ViT-Large模型微调的黑色素瘤图像分类模型,在评估集上达到82.73%的准确率
图像分类
Transformers

V
UnipaPolitoUnimore
100
1
Whisper Medium Oswald
Apache-2.0
基于OpenAI Whisper-medium微调的海地克里奥尔语语音识别模型,专注高准确率转录
语音识别
Transformers

其他
W
jsbeaudry
102
1
Vit Base Beans
Apache-2.0
基于Google Vision Transformer (ViT)架构的图像分类模型,专门针对beans数据集进行微调
图像分类
Transformers

V
HieuVo
49
1
PTBR GPT4 O NewsClassifier
Apache-2.0
基于bert-base-multilingual-cased微调的模型,在评估集上准确率达到99.93%
大型语言模型
Transformers

P
gui8600k
25
1
Vit B 16 Aion400m E32 1finetuned 1
MIT
基于OpenCLIP框架的视觉Transformer模型,针对零样本图像分类任务进行微调
图像分类
V
Albe-njupt
18
1
Microsoft Finetuned Personality
MIT
该模型通过分析用户对20个问题的回答,预测其在大五人格特质(OCEAN)上的倾向性,准确率达97%
文本分类
Transformers

英语
M
Nasserelsaman
453
10
Convnextv2 Large DogBreed
Apache-2.0
该模型是基于facebook/convnextv2-large-22k-224在狗品种分类数据集上微调的版本,在评估集上准确率达到91.39%。
图像分类
Transformers

C
Pavarissy
184
6
Segformerb5 Finetuned Largerimages
其他
基于SegFormer-B5架构的图像分割模型,在较大尺寸图像数据集上微调,擅长区分背景和分支区域
图像分割
Transformers

S
JCAI2000
14
0
Deepweeds
Apache-2.0
基于google/vit-base-patch16-224-in21k微调的图像分类模型,适用于植物分类任务
图像分类
Transformers

D
feisarx86
24
1
Plant Vit Model 1
Apache-2.0
基于ViT架构的植物图像分类模型,在未知数据集上微调后达到99.95%的验证准确率
图像分类
Transformers

P
Carina124
89
1
Deit Tiny Patch16 224 Finetuned Main Gpu 20e Final
Apache-2.0
基于DeiT-tiny架构的轻量级图像分类模型,在自定义图像数据集上微调后达到98.56%的验证准确率
图像分类
Transformers

D
Gokulapriyan
15
0
Car Brands Classification
Apache-2.0
基于BEiT架构的预训练图像分类模型,支持越南语标签,适用于视觉任务
图像分类
Transformers

其他
C
lamnt2008
19
3
Convnext Tiny 224 Finetuned Aiornot
Apache-2.0
基于ConvNeXt-Tiny架构的计算机视觉模型,在特定数据集上微调后用于图像分类任务
图像分类
Transformers

C
kanak8278
16
0
Swin Tiny Patch4 Window7 224 Finetuned Main Gpu 20e Final
Apache-2.0
基于Swin Transformer架构的微调图像分类模型,在图像文件夹数据集上取得了99.17%的验证准确率
图像分类
Transformers

S
Gokulapriyan
16
0
Swin Tiny Patch4 Window7 224 Finetuned Birds
Apache-2.0
基于Swin Transformer架构的鸟类图像分类模型,在鸟类数据集上微调,准确率达82.15%
图像分类
Transformers

S
gjuggler
17
0
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
基于Google的ViT模型在花卉图像数据集上微调的视觉Transformer模型
图像分类
Transformers

V
fzaghloul
35
0
Beit Base Patch16 224 Pt22k Ft22k Finetuned Eurosat
Apache-2.0
基于microsoft/beit-base-patch16-224-pt22k-ft22k模型在图像文件夹数据集上微调的图像分类模型
图像分类
Transformers

B
sabhashanki
16
0
Vegetation Classification Model
Apache-2.0
基于Vision Transformer的图像分类模型,用于识别街景图像中的植被部分,准确率达92.9%。
图像分类
Transformers

英语
V
iammartian0
21
1
Deit Tiny Patch16 224 Finetuned Og Dataset 10e
Apache-2.0
基于DeiT-tiny架构的轻量级图像分类模型,在自定义图像数据集上微调后达到94.8%的准确率
图像分类
Transformers

D
Gokulapriyan
17
0
Swinv2 Tiny Patch4 Window8 256 Finetuned Og Dataset 10e Finetuned Og Dataset 10e
Apache-2.0
基于SwinV2架构的轻量级图像分类模型,在图像文件夹数据集上微调,准确率达97.83%
图像分类
Transformers

S
Gokulapriyan
17
0
Swin Tiny Patch4 Window7 224 Finetuned Og Dataset 10e Finetuned Og Dataset 10e
Apache-2.0
这是一个基于Swin Transformer架构的视觉模型,经过微调后在图像分类任务上表现出色。
图像分类
Transformers

S
Gokulapriyan
15
0
Swin Tiny Patch4 Window7 224 Finetuned Og Dataset 10e
Apache-2.0
基于Swin Transformer Tiny架构的视觉模型,在图像分类任务上进行了10轮微调
图像分类
Transformers

S
Gokulapriyan
19
0
Swinv2 Tiny Patch4 Window8 256 Finetuned Og Dataset 5e
Apache-2.0
该模型是基于Swin Transformer V2 Tiny架构微调的图像分类模型,在评估集上达到96.35%的准确率。
图像分类
Transformers

S
Gokulapriyan
15
0
Beitv2 Martin
Apache-2.0
该模型是基于microsoft/beit-base-patch16-224-pt22k-ft22k微调的版本,具体用途和训练数据未明确说明。
图像分类
Transformers

B
molsen
17
0
Swin Tiny Patch4 Window7 224 Finetuned Aiornot Baseline
Apache-2.0
基于Swin Transformer Tiny架构的视觉模型,在未知数据集上微调,用于图像分类任务
图像分类
Transformers

S
Thabet
17
0
Vit Base Patch16 224 In21k Fog Or Smog Classification
Apache-2.0
基于google/vit-base-patch16-224-in21k微调的图像分类模型,在测试集上准确率达91%
图像分类
Transformers

V
uisikdag
19
0
Swin Tiny Patch4 Window7 224 Finetuned Eurosat
Apache-2.0
基于Swin Transformer Tiny架构的微调图像分类模型,在图像文件夹数据集上训练
图像分类
Transformers

S
Celal11
18
0
Swin Tiny Patch4 Window7 224 Finetuned Fluro Cls
Apache-2.0
基于Swin Transformer Tiny架构的微调模型,用于图像分类任务
图像分类
Transformers

S
zlgao
19
0
Convnext Tiny 224 Finetuned Eurosat Albumentations
Apache-2.0
基于ConvNeXt-Tiny架构的微调图像分类模型,在EuroSAT数据集上实现了98.15%的准确率
图像分类
Transformers

C
toshio19910306
18
0
Vit Base Patch16 224 In21k Lcbsi
Apache-2.0
基于Google Vision Transformer (ViT)架构的微调模型,适用于图像分类任务
图像分类
Transformers

V
polejowska
33
0
Swin Base Patch4 Window7 224 In22k Finetuned Cifar10
Apache-2.0
该模型是基于Swin Transformer架构的图像分类模型,在CIFAR-10数据集上微调后达到98.9%的准确率。
图像分类
Transformers

S
Weili
19
0
Vit Base Patch32 224 In21 Leicester Binary
Apache-2.0
基于Google Vision Transformer (ViT)架构的二分类图像分类模型,在特定数据集上微调实现高精度分类
图像分类
Transformers

V
davanstrien
15
0
Vit Base Patch16 224 Finetuned
Apache-2.0
基于Google Vision Transformer (ViT)模型微调的图像分类模型,在自定义图像数据集上进行了训练
图像分类
Transformers

V
clp
30
0
Bert Base Multilingual Cased Sv2
Apache-2.0
基于bert-base-multilingual-cased在squad_v2数据集上微调的多语言问答模型
问答系统
Transformers

B
monakth
13
0
Beit Base Land Cover V0.1
Apache-2.0
基于BEiT架构的图像分类模型,在图像文件夹数据集上微调,准确率达98.7%
图像分类
Transformers

B
dfurman
22
0
Beit Base Patch16 224 Pt22k Ft22k Finetuned Mnist
Apache-2.0
基于BEiT架构的视觉Transformer模型,在MNIST手写数字数据集上微调,达到99.35%的准确率
图像分类
Transformers

B
Karelito00
19
0
Cvt 13 384 In22k FV Finetuned Memes
Apache-2.0
基于microsoft/cvt-13-384-22k在图像文件夹数据集上微调的图像分类模型,在评估集上准确率达到83.46%
图像分类
Transformers

C
jayanta
11
0
Convnext Tiny 224 Finetuned
Apache-2.0
该模型是基于facebook/convnext-tiny-224微调的版本,主要用于图像分类任务,在评估集上表现出色。
图像分类
Transformers

C
ImageIN
15
0
Vit Base Patch16 224 In21k Wwwwii
Apache-2.0
该模型是基于Google的ViT模型在未知数据集上微调的版本,主要用于图像分类任务。
图像分类
Transformers

V
Zynovia
22
0
Vc Bantai Vit Withoutambi Adunest V1
Apache-2.0
基于Google的ViT-base模型微调的高精度图像分类模型,在评估集上准确率达91.81%
图像分类
Transformers

V
AykeeSalazar
28
0
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文