Model Ner Master
Apache-2.0
基于ModernBERT-base微调的模型,在评估集上F1分数为0.3833
大型语言模型
Transformers

M
luisgasco
35
1
Long Promt Finetuned Sec
Apache-2.0
该模型是基于Alt4nsuh/long_promt-finetuned-first微调的版本,适用于处理长文本提示任务。
大型语言模型
Transformers

L
Alt4nsuh
32
1
Datatrain Videomae Base Finetuned Lr1e 07 Poly3
基于MCG-NJU/videomae-base微调的视频理解模型,在未知数据集上训练,准确率为11.1%
视频处理
Transformers

D
EloiseInacio
13
0
Results
Apache-2.0
该模型是在bert-base-uncased基础上进行微调的版本,专注于提升特定任务的召回率表现
大型语言模型
Transformers

R
shank250
23
1
Modernbert Morocco
Apache-2.0
该模型是基于ModernBERT-base在未知数据集上微调的版本,具体用途和性能待补充
大型语言模型
Transformers

M
BounharAbdelaziz
23
1
Tabletransstructrecog Finetuned Pubt1m Lstabletransstrucrecogv1 Session6
该模型是一个表格结构识别模型,可能用于从文档中提取表格的结构信息。
文字识别
Transformers

T
nsugianto
67
0
RU XTTS DonuModel
Apache-2.0
XTTS 是一个基于40小时数据集训练的文本转语音模型,支持俄语,适用于法律领域的语音合成任务。
语音合成
Transformers

其他
R
NeuroDonu
115
11
MIDI Transformer Mistral 10k Vocab 100k Steps
该模型是基于未知数据集进行微调的版本,具体任务和架构信息不详。
大型语言模型
Transformers

M
sunsetsobserver
44
1
Gujiroberta Jian Fan
该模型是基于/gemini/data-1/sikuroberta_vocabtxt微调得到的版本,具体用途和功能需要进一步信息补充。
大型语言模型
Transformers

G
hsc748NLP
62
5
Donut Trained Example 3
MIT
基于Donut架构的微调模型,具体用途和功能需要更多信息
大型语言模型
Transformers

D
anarenteriare
14
0
Wavlm Basic N F N 8batch 5sec 0.0001lr Unfrozen
基于microsoft/wavlm-large微调的语音处理模型,在评估集上准确率达73.33%
音频分类
Transformers

W
reralle
14
0
Multilabel V3
Apache-2.0
基于google/vit-base-patch16-224-in21k微调的多标签分类模型,准确率为73.7%
图像分类
Transformers

M
Madronus
19
0
Dit Base Finetuned Rvlcdip Finetuned Data200
该模型是基于microsoft/dit-base-finetuned-rvlcdip在图像文件夹数据集上微调的版本,主要用于图像分类任务。
图像分类
Transformers

D
AthiraVr
16
0
Videomae Base Finetuned Ucf101 Subset
基于VideoMAE基础模型在UCF101子集上微调的视频分类模型
视频处理
Transformers

V
koya1
14
0
Vit Model
基于预处理1024配置数据集微调的ViT模型,用于图像分类任务
图像分类
Transformers

V
mm-ai
19
0
Test3
基于klue/bert-base微调的模型,具体用途和训练数据未明确说明
大型语言模型
Transformers

T
YeRyeongLee
15
0
Resnet Weather Model
基于ResNet架构的天气图像分类模型,用于识别不同天气条件下的图像
图像分类
Transformers

R
sallyanndelucia
27
3
Spoofing Vit 16 224
Apache-2.0
基于ViT架构的图像防伪检测模型,在未知数据集上微调后准确率达70.88%
图像分类
Transformers

S
venuv62
59
0
Mt5 Hindi To English
Apache-2.0
基于google/mt5-small预训练模型微调的印地语到英语翻译模型
机器翻译
Transformers

英语
M
snehalyelmati
125
7
TGL 3
Apache-2.0
TGL-3是基于t5-small微调的摘要生成模型,在23000条openreview.net摘要数据上训练,支持学术文本摘要生成任务。
文本生成
Transformers

T
awesometeng
13
1
Vit Chess V4
基于Vision Transformer架构的象棋相关视觉模型,在未知数据集上微调
图像分类
Transformers

V
Migga
29
0
Exper Batch 16 E8
Apache-2.0
基于google/vit-base-patch16-224-in21k模型在sudo-s/herbier_mesuem1数据集上微调的图像分类模型,准确率达91.29%
图像分类
Transformers

E
sudo-s
30
0
Exper Batch 8 E4
Apache-2.0
基于google/vit-base-patch16-224-in21k在sudo-s/herbier_mesuem1数据集上微调的图像分类模型
图像分类
Transformers

E
sudo-s
31
0
Tmp Trainer
该模型是在未知数据集上从头开始训练的,具体信息和用途尚不明确。
大型语言模型
Transformers

T
Mahmoud1816Yasser
20
0
Test Demo Colab
这是一个自动生成的测试模型,主要用于演示和实验目的。
大型语言模型
Transformers

T
YYSH
16
0
Roberta Base Culinary
Apache-2.0
基于bert-base-uncased在烹饪相关数据集上微调的RoBERTa模型,适用于文本分类等NLP任务
大型语言模型
Transformers

R
juancavallotti
34
0
Tapt Nbme Deberta V3 Base
MIT
基于microsoft/deberta-v3-base微调的模型,在评估集上准确率为75.76%
大型语言模型
Transformers

T
ZZ99
15
0
Wav2vec2 Model2 Torgo
基于wav2vec2架构的语音识别模型,在TORGO数据集上训练,但具体训练细节和性能表现有限。
语音识别
Transformers

W
modhp
16
0
Xls R Es Test Lm Finetuned Sentiment Mesd
Apache-2.0
该模型是基于glob-asr/xls-r-es-test-lm微调的西班牙语情感分析模型,在评估集上准确率为23.85%。
文本分类
Transformers

X
DrishtiSharma
22
0
Wav2vec2 Base Toy Train Data Fast 10pct
Apache-2.0
该模型是基于facebook/wav2vec2-base在未知数据集上微调的语音识别模型,训练时使用了10%的数据子集。
语音识别
Transformers

W
scasutt
22
0
Wav2vec2 Base Toy Train Data Augment 0.1
Apache-2.0
基于facebook/wav2vec2-base微调的语音识别模型,在玩具数据集上训练并应用了0.1比例的数据增强
语音识别
Transformers

W
scasutt
22
0
Wav2vec2 Base Toy Train Data Augment 0.1.csv
Apache-2.0
该模型是基于facebook/wav2vec2-base进行微调的语音识别模型,使用了数据增强技术(增强比例为0.1)。
语音识别
Transformers

W
scasutt
21
0
Test
基于Ameer05/tokenizer-repo微调的摘要生成模型,在胭脂红指标上表现良好
文本生成
Transformers

T
Ameer05
18
0
Bangla Voice
这是一个基于孟加拉语的语音识别模型,在特定数据集上进行了微调,主要用于语音转文本任务。
语音识别
Transformers

B
iftekher
26
1
Gpt2 Finetuned Comp2
MIT
基于GPT-2架构的微调模型,在特定任务上进行了优化
大型语言模型
Transformers

G
brad1141
75
0
Bert Base Uncased Finetuned Quac
基于Transformer架构的预训练语言模型,适用于多种NLP任务
大型语言模型
Transformers

B
OrfeasTsk
25
0
Bert Base Cased Wikitext2
基于BERT架构的预训练语言模型,在wikitext2数据集上进行了微调,适用于填充掩码任务
大型语言模型
Transformers

B
ncduy
48
0
Wav2vec2 2 Roberta Large No Adapter Frozen Enc
该模型是基于LibriSpeech ASR数据集训练的语音识别模型,能够将语音转换为文本。
语音识别
Transformers

W
speech-seq2seq
27
0
Bert Base Multilingual Uncased Finetuned
基于bert-base-multilingual-uncased微调的模型,具体用途未明确说明
大型语言模型
Transformers

B
am-shb
16
0
Conserv Fulltext 1 18 22
MIT
基于GPT-2微调的文本生成模型
大型语言模型
Transformers

C
akozlo
14
0
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文