小批量训练
Model Ner Master
Apache-2.0
基于ModernBERT-base微调的模型,在评估集上F1分数为0.3833
大型语言模型
Transformers
M
luisgasco
35
1
Long Promt Finetuned Sec
Apache-2.0
该模型是基于Alt4nsuh/long_promt-finetuned-first微调的版本,适用于处理长文本提示任务。
大型语言模型
Transformers
L
Alt4nsuh
32
1
Datatrain Videomae Base Finetuned Lr1e 07 Poly3
基于MCG-NJU/videomae-base微调的视频理解模型,在未知数据集上训练,准确率为11.1%
视频处理
Transformers
D
EloiseInacio
13
0
Results
Apache-2.0
该模型是在bert-base-uncased基础上进行微调的版本,专注于提升特定任务的召回率表现
大型语言模型
Transformers
R
shank250
23
1
Modernbert Morocco
Apache-2.0
该模型是基于ModernBERT-base在未知数据集上微调的版本,具体用途和性能待补充
大型语言模型
Transformers
M
BounharAbdelaziz
23
1
Tabletransstructrecog Finetuned Pubt1m Lstabletransstrucrecogv1 Session6
该模型是一个表格结构识别模型,可能用于从文档中提取表格的结构信息。
文字识别
Transformers
T
nsugianto
67
0
RU XTTS DonuModel
Apache-2.0
XTTS 是一个基于40小时数据集训练的文本转语音模型,支持俄语,适用于法律领域的语音合成任务。
语音合成
Transformers
其他
R
NeuroDonu
115
11
MIDI Transformer Mistral 10k Vocab 100k Steps
该模型是基于未知数据集进行微调的版本,具体任务和架构信息不详。
大型语言模型
Transformers
M
sunsetsobserver
44
1
Gujiroberta Jian Fan
该模型是基于/gemini/data-1/sikuroberta_vocabtxt微调得到的版本,具体用途和功能需要进一步信息补充。
大型语言模型
Transformers
G
hsc748NLP
62
5
Donut Trained Example 3
MIT
基于Donut架构的微调模型,具体用途和功能需要更多信息
大型语言模型
Transformers
D
anarenteriare
14
0
Wavlm Basic N F N 8batch 5sec 0.0001lr Unfrozen
基于microsoft/wavlm-large微调的语音处理模型,在评估集上准确率达73.33%
音频分类
Transformers
W
reralle
14
0
Multilabel V3
Apache-2.0
基于google/vit-base-patch16-224-in21k微调的多标签分类模型,准确率为73.7%
图像分类
Transformers
M
Madronus
19
0
Dit Base Finetuned Rvlcdip Finetuned Data200
该模型是基于microsoft/dit-base-finetuned-rvlcdip在图像文件夹数据集上微调的版本,主要用于图像分类任务。
图像分类
Transformers
D
AthiraVr
16
0
Videomae Base Finetuned Ucf101 Subset
基于VideoMAE基础模型在UCF101子集上微调的视频分类模型
视频处理
Transformers
V
koya1
14
0
Vit Model
基于预处理1024配置数据集微调的ViT模型,用于图像分类任务
图像分类
Transformers
V
mm-ai
19
0
Test3
基于klue/bert-base微调的模型,具体用途和训练数据未明确说明
大型语言模型
Transformers
T
YeRyeongLee
15
0
Resnet Weather Model
基于ResNet架构的天气图像分类模型,用于识别不同天气条件下的图像
图像分类
Transformers
R
sallyanndelucia
27
3
Spoofing Vit 16 224
Apache-2.0
基于ViT架构的图像防伪检测模型,在未知数据集上微调后准确率达70.88%
图像分类
Transformers
S
venuv62
59
0
Mt5 Hindi To English
Apache-2.0
基于google/mt5-small预训练模型微调的印地语到英语翻译模型
机器翻译
Transformers
英语
M
snehalyelmati
125
7
TGL 3
Apache-2.0
TGL-3是基于t5-small微调的摘要生成模型,在23000条openreview.net摘要数据上训练,支持学术文本摘要生成任务。
文本生成
Transformers
T
awesometeng
13
1
Vit Chess V4
基于Vision Transformer架构的象棋相关视觉模型,在未知数据集上微调
图像分类
Transformers
V
Migga
29
0
Exper Batch 16 E8
Apache-2.0
基于google/vit-base-patch16-224-in21k模型在sudo-s/herbier_mesuem1数据集上微调的图像分类模型,准确率达91.29%
图像分类
Transformers
E
sudo-s
30
0
Exper Batch 8 E4
Apache-2.0
基于google/vit-base-patch16-224-in21k在sudo-s/herbier_mesuem1数据集上微调的图像分类模型
图像分类
Transformers
E
sudo-s
31
0
Tmp Trainer
该模型是在未知数据集上从头开始训练的,具体信息和用途尚不明确。
大型语言模型
Transformers
T
Mahmoud1816Yasser
20
0
Test Demo Colab
这是一个自动生成的测试模型,主要用于演示和实验目的。
大型语言模型
Transformers
T
YYSH
16
0
Roberta Base Culinary
Apache-2.0
基于bert-base-uncased在烹饪相关数据集上微调的RoBERTa模型,适用于文本分类等NLP任务
大型语言模型
Transformers
R
juancavallotti
34
0
Tapt Nbme Deberta V3 Base
MIT
基于microsoft/deberta-v3-base微调的模型,在评估集上准确率为75.76%
大型语言模型
Transformers
T
ZZ99
15
0
Wav2vec2 Model2 Torgo
基于wav2vec2架构的语音识别模型,在TORGO数据集上训练,但具体训练细节和性能表现有限。
语音识别
Transformers
W
modhp
16
0
Xls R Es Test Lm Finetuned Sentiment Mesd
Apache-2.0
该模型是基于glob-asr/xls-r-es-test-lm微调的西班牙语情感分析模型,在评估集上准确率为23.85%。
文本分类
Transformers
X
DrishtiSharma
22
0
Wav2vec2 Base Toy Train Data Fast 10pct
Apache-2.0
该模型是基于facebook/wav2vec2-base在未知数据集上微调的语音识别模型,训练时使用了10%的数据子集。
语音识别
Transformers
W
scasutt
22
0
Wav2vec2 Base Toy Train Data Augment 0.1
Apache-2.0
基于facebook/wav2vec2-base微调的语音识别模型,在玩具数据集上训练并应用了0.1比例的数据增强
语音识别
Transformers
W
scasutt
22
0
Wav2vec2 Base Toy Train Data Augment 0.1.csv
Apache-2.0
该模型是基于facebook/wav2vec2-base进行微调的语音识别模型,使用了数据增强技术(增强比例为0.1)。
语音识别
Transformers
W
scasutt
21
0
Test
基于Ameer05/tokenizer-repo微调的摘要生成模型,在胭脂红指标上表现良好
文本生成
Transformers
T
Ameer05
18
0
Bangla Voice
这是一个基于孟加拉语的语音识别模型,在特定数据集上进行了微调,主要用于语音转文本任务。
语音识别
Transformers
B
iftekher
26
1
Gpt2 Finetuned Comp2
MIT
基于GPT-2架构的微调模型,在特定任务上进行了优化
大型语言模型
Transformers
G
brad1141
75
0
Bert Base Uncased Finetuned Quac
基于Transformer架构的预训练语言模型,适用于多种NLP任务
大型语言模型
Transformers
B
OrfeasTsk
25
0
Bert Base Cased Wikitext2
基于BERT架构的预训练语言模型,在wikitext2数据集上进行了微调,适用于填充掩码任务
大型语言模型
Transformers
B
ncduy
48
0
Wav2vec2 2 Roberta Large No Adapter Frozen Enc
该模型是基于LibriSpeech ASR数据集训练的语音识别模型,能够将语音转换为文本。
语音识别
Transformers
W
speech-seq2seq
27
0
Bert Base Multilingual Uncased Finetuned
基于bert-base-multilingual-uncased微调的模型,具体用途未明确说明
大型语言模型
Transformers
B
am-shb
16
0
Conserv Fulltext 1 18 22
MIT
基于GPT-2微调的文本生成模型
大型语言模型
Transformers
C
akozlo
14
0