Ai Cop
DeBERTa-v3-small是微软发布的轻量级DeBERTa模型变体,适用于文本分类任务。
文本分类
Safetensors
英语
A
dejanseo
53
1
Cricket Project 03
MIT
该模型是基于microsoft/deberta-v3-base微调的版本,在评估集上表现出色,准确率达到99.87%。
大型语言模型
Transformers

C
rawsun00001
22
1
Twitter Bitcoin Emotion Classification
MIT
基于BERTweet-base微调的情绪分类模型,用于分析Twitter上与比特币相关的情感倾向
文本分类
Transformers

T
sandiumenge
40
1
Phobert Sentiment Analysis
基于vinai/phobert-base-v2微调的情感分析模型,在评估集上达到93.6%的准确率
文本分类
Transformers

P
phanlamthanhdu
68
1
Weather Classification ViT
Apache-2.0
基于Google的ViT模型微调的天气分类模型,在图像分类任务上表现出色,准确率达96.79%。
图像分类
Transformers

W
methane6923
66
1
Bank Transactions Statements Classification
MIT
基于Flaubert小型法语模型微调的银行交易流水分类器
文本分类
Transformers

B
moctarsmal
85
2
PEGASUS PET Impression
专用于PET报告发现部分摘要生成的微调版PEGASUS模型,可生成准确且个性化的全身PET报告印象。
文本生成
Transformers

英语
P
xtie
16
0
Git Base Captioning Ft Hl Narratives
Apache-2.0
该模型是基于GIT架构的图像描述生成模型,在HL Narratives数据集上微调,专门用于生成高层次叙事性图像描述。
图像生成文本
Transformers

支持多种语言
G
michelecafagna26
19
0
Wav2vec2 Large Xlsr 53 English Pronunciation Evaluation Aod Cut Balance
Apache-2.0
基于wav2vec2-large-xlsr-53的英语发音评估模型,用于评估英语发音质量
音频分类
Transformers

W
hafidikhsan
35
5
Bsc Ai Thesis Torgo Model 1
Apache-2.0
基于facebook/wav2vec2-base微调的语音处理模型,在评估集上表现出色
语音识别
Transformers

B
Juardo
19
0
Ibert Roberta Base Abusive Or Threatening Speech
该模型是基于ibert-roberta-base微调得到的版本,专门用于检测辱骂或威胁性言论。
文本分类
Transformers

I
DunnBC22
174.14k
3
Wav2vec2 Base Toronto Emotional Speech Set
Apache-2.0
基于wav2vec2-base微调的音频情感分类模型,用于识别说话者的情绪状态。
音频分类
Transformers

英语
W
DunnBC22
185
3
10E Affecthq Fer Balanced W0.1 Jitter Jiggle
Apache-2.0
基于google/vit-base-patch16-224-in21k微调的视觉模型,用于面部表情识别任务
人脸相关
Transformers

1
Piro17
17
0
Vit Base Patch16 224 In21k Weather Images Classification
Apache-2.0
基于Vision Transformer架构的天气图像分类模型,在Kaggle天气数据集上微调,准确率达93.4%
图像分类
Transformers

英语
V
DunnBC22
236
2
Autotrain Histopathological Image Classification 3393093039
这是一个通过AutoTrain训练的多类别图像分类模型,专门用于组织病理学图像分类任务。
图像分类
Transformers

A
JoffreyMa
17
0
Vit Swin Base 224 Gpt2 Image Captioning
MIT
基于VisionEncoderDecoder架构的图像描述生成模型,使用Swin Transformer作为视觉编码器和GPT-2作为解码器,在COCO2014数据集上微调
图像生成文本
Transformers

英语
V
Abdou
321
2
Vit Base Patch16 224 In21k Lung And Colon Cancer
Apache-2.0
基于ViT架构的肺部和结肠癌多类别图像分类模型,在评估集上准确率达99.94%
图像分类
Transformers

英语
V
DunnBC22
2,654
4
Vit Base Patch16 224 In21k Simpsons Family Members
Apache-2.0
基于ViT架构微调的《辛普森一家》角色分类模型,准确率达95.3%
图像分类
Transformers

英语
V
DunnBC22
37
1
Vit Base Patch16 224 In21k Finetuned Cifar10 Album Vitvmmrdb Make Model Album Pred
Apache-2.0
基于ViT架构的视觉Transformer模型,在CIFAR-10数据集上微调,用于图像分类任务
图像分类
Transformers

V
venetis
30
0
Vit Base Patch16 224 Album Vitvmmrdb Make Model Album Pred
Apache-2.0
基于Google的ViT模型在未知数据集上微调的视觉分类模型,擅长图像分类任务
图像分类
Transformers

V
venetis
33
0
Resnet 18 Feature Extraction
Apache-2.0
基于microsoft/resnet-18微调的图像分类模型,在图像文件夹数据集上表现优异。
图像分类
Transformers

R
SiddharthaM
28
0
Brain Tumor Classification
Apache-2.0
基于Swin Transformer架构微调的脑肿瘤图像分类模型,在评估集上准确率达96.47%
图像分类
Transformers

B
Devarshi
205
9
Dit Base Finetuned Brs
基于microsoft/dit-base微调的图像分类模型,在图像文件夹数据集上表现良好
图像分类
Transformers

D
sergiocannata
13
0
Resnet 50 FV2 Finetuned Memes
Apache-2.0
基于微软ResNet-50架构微调的表情包分类模型,在图像分类任务上达到64.5%的准确率
图像分类
Transformers

R
jayanta
24
0
Resnet 152 Fv Finetuned Memess
Apache-2.0
基于microsoft/resnet-152微调的图像分类模型,在自定义图像数据集上达到76.74%的准确率
图像分类
Transformers

R
jayanta
23
0
Bert Uncased Keyword Extractor
Apache-2.0
基于bert-base-uncased微调的关键词提取模型,适用于英文文本的关键词抽取任务
序列标注
Transformers

英语
B
yanekyuk
10.80k
46
Camembert Keyword Extractor
MIT
基于camembert-base微调的法语关键词提取模型,擅长从法语文本中识别关键信息
大型语言模型
Transformers

法语
C
yanekyuk
161.42k
13
Bert Keyword Extractor
Apache-2.0
基于bert-base-cased微调的关键词提取模型,擅长从文本中识别关键信息
序列标注
Transformers

英语
B
yanekyuk
578
43
Bert Base German Cased Finetuned Subj V6 7Epoch V2
MIT
基于bert-base-german-cased模型微调的德语文本分类模型,在评估集上表现良好
文本分类
Transformers

B
tbosse
15
0
Kt Punc
基于bert-base-chinese微调的中文情感分析模型,在中文情感语料库上表现良好。
文本分类
Transformers

K
kktoto
23
0
Test Ner
Apache-2.0
基于bert-base-uncased微调的命名实体识别模型,在评估集上F1值达95.91%
序列标注
Transformers

T
kSaluja
15
0
Gpt2 Finetuned Comp2
MIT
基于GPT-2架构的微调模型,在特定任务上进行了优化
大型语言模型
Transformers

G
brad1141
75
0
Distil Slovakbert Upos
基于distil-slovakbert在通用依存关系sk_snk数据集上微调的斯洛伐克语词性标注模型
序列标注
Transformers

D
crabz
16
0
Epiclassify4gard
该模型是在BioBERT基础上微调的文本分类模型,在医学文本分类任务上表现优异。
文本分类
Transformers

E
ncats
27
0
T5 Small German
Apache-2.0
基于T5-small架构微调的德语摘要生成模型,在mlsum德语数据集上训练7个epoch,Rouge1得分42.38
文本生成
Transformers

德语
T
Shahm
108
1
Bart Large Squad Qg Default
该模型是基于BART-large微调的英文问题生成模型,专门用于从给定文本和答案生成相关问题。
问答系统
Transformers

英语
B
research-backup
13
0
Fb Bart Large Finetuned Trade The Event Finance Summarizer
基于BART-large架构微调的金融事件摘要生成模型,在Rouge指标上表现优异
文本生成
Transformers

F
nickmuchi
24
14
Robbert Dutch Base Toxic Comments
Apache-2.0
基于RobBERT模型的荷兰语恶意评论检测模型,用于识别具有毒性或潜在危害的评论内容
文本分类
Transformers

其他
R
ml6team
1,769
6
Bert Base Uncased Amazon Polarity
Apache-2.0
基于BERT基础模型在Amazon商品评论情感分析数据集上微调的文本分类模型,准确率达94.65%
文本分类
Transformers

B
fabriceyhc
339
4
Finbert Finnsentiment
这是一个针对芬兰语情感分析任务微调的FinBERT模型,使用FinnSentiment数据集进行训练和评估。
文本分类
Transformers

其他
F
fergusq
10.92k
2
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文