混合精度训练
Kanana Nano 2.1b Instruct GGUF
Kanana Nano 2.1B Instruct 是一个由 Kakao 开发的 21 亿参数指令微调语言模型,支持英语和韩语文本生成任务。
大型语言模型
支持多种语言
K
Melvin56
55
1
Kanana Nano 2.1b Embedding
Kanana是由Kakao开发的双语(韩语/英语)语言模型系列,在韩语任务上表现卓越,在英语任务上具备竞争力,相比同规模模型显著降低计算成本。
大型语言模型
Transformers
支持多种语言
K
kakaocorp
7,722
20
Summarisation Model
这是一个基于SAMSum数据集微调的T5文本摘要模型,适用于对话和会话的摘要任务。
文本生成
Transformers
S
Saravanankumaran
16
0
My Frugal Audio Model
Apache-2.0
这是基于facebook/wav2vec2-base微调的音频处理模型,主要用于语音相关任务
音频分类
Transformers
M
hsalehILB
1
0
Modern Bert Multilingual
Apache-2.0
ModernBertMultilingual是一个从零开始训练的多语言模型,支持中文、英文、日文和韩文,在混合东亚语言文本任务中表现优异。
大型语言模型
Safetensors
支持多种语言
M
neavo
333
20
Safesql V1
Apache-2.0
基于Keras 3.x训练的恶意SQL检测模型,能识别多种SQL注入攻击向量
文本分类
英语
S
deathsaber93
41
1
Zlm B64 Le4 S8000
MIT
该模型是基于microsoft/speecht5_tts微调的语音合成(TTS)模型,主要用于文本到语音转换任务。
语音合成
Transformers
Z
mikhail-panzo
24
0
MIDI Transformer Mistral 10k Vocab 100k Steps
该模型是基于未知数据集进行微调的版本,具体任务和架构信息不详。
大型语言模型
Transformers
M
sunsetsobserver
44
1
Bart Multinews Model
这是一个基于multi_news数据集训练的文本摘要模型,能够从多文档输入中生成简洁的摘要。
文本生成
Transformers
B
usakha
18
0
Dreambooth Diffusion Clay Cups
基于Keras Dreambooth微调的文本生成图像模型,可生成孟加拉陶土艺术风格的各类物品图像
图像生成
D
keras-dreambooth
13
0
Bert Finetuned Small Data Uia
Apache-2.0
该模型是基于bert-base-uncased在未指定数据集上微调的版本,适用于自然语言处理任务。
大型语言模型
Transformers
B
eibakke
22
0
Fillmaskmodel
MIT
基于xlm-roberta-base微调的填充掩码模型,用于预测被遮蔽的文本片段
大型语言模型
Transformers
F
Okyx
46
1
Vit Base Patch16 224 Wi2
Apache-2.0
基于google/vit-base-patch16-224微调的视觉Transformer模型,适用于图像分类任务
图像分类
Transformers
V
Imene
21
0
Vit Base Patch16 224 In21k Wr
Apache-2.0
该模型是基于google/vit-base-patch16-224-in21k在未知数据集上微调的视觉Transformer模型,主要用于图像分类任务。
图像分类
Transformers
V
Imene
21
0
Vit Base Patch16 224 In21k Wwwwii
Apache-2.0
该模型是基于Google的ViT模型在未知数据集上微调的版本,主要用于图像分类任务。
图像分类
Transformers
V
Zynovia
22
0
Malaya Speech Fine Tune MrBrown 15 Jun
该模型是在uob_singlish数据集上对malay-huggingface/wav2vec2-xls-r-300m-mixed进行微调的版本,主要用于新加坡英语语音识别。
语音识别
Transformers
M
RuiqianLi
44
0
Wav2vec2 2 Gpt2 Regularisation
这是一个基于 LibriSpeech 数据集训练的自动语音识别(ASR)模型,能够将英语语音转换为文本。
语音识别
Transformers
W
sanchit-gandhi
20
0
Transformers Qa
Apache-2.0
该模型是基于distilbert-base-cased在SQuAD数据集上微调的问答模型,专为Keras.io的问答教程训练。
问答系统
Transformers
T
keras-io
23
4
Test Model
Apache-2.0
ResNet50 v1.5 是原始 ResNet50 v1 模型的改进版本,通过调整卷积步幅提升了约 0.5% 的 top1 准确率。
图像分类
Transformers
T
mchochowski
18
0
Alphadelay
Apache-2.0
基于facebook/wav2vec2-base微调的语音识别模型,词错误率(WER)为1.0
语音识别
Transformers
A
renBaikau
17
0
Wav2vec2 Large Lv60h 100h 2nd Try
基于LibriSpeech数据集微调的wav2vec2-large-lv60语音识别模型,支持英语语音转文本任务
语音识别
Transformers
W
patrickvonplaten
20
0
Wav2vec2 2 Bart Base
基于wav2vec2-base和bart-base在LibriSpeech ASR clean数据集上微调的语音识别模型
语音识别
Transformers
W
patrickvonplaten
493
5
Electra Large Discriminator Squad2 512
这是一个基于ELECTRA架构的大规模判别器模型,专门针对问答任务在SQuAD2.0数据集上进行了微调,能够处理有答案和无答案的问答场景。
问答系统
Transformers
E
ahotrod
8,925
6