Kanana Nano 2.1b Instruct GGUF
Kanana Nano 2.1B Instruct 是一个由 Kakao 开发的 21 亿参数指令微调语言模型,支持英语和韩语文本生成任务。
大型语言模型
支持多种语言
K
Melvin56
55
1
Kanana Nano 2.1b Embedding
Kanana是由Kakao开发的双语(韩语/英语)语言模型系列,在韩语任务上表现卓越,在英语任务上具备竞争力,相比同规模模型显著降低计算成本。
大型语言模型
Transformers

支持多种语言
K
kakaocorp
7,722
20
Summarisation Model
这是一个基于SAMSum数据集微调的T5文本摘要模型,适用于对话和会话的摘要任务。
文本生成
Transformers

S
Saravanankumaran
16
0
My Frugal Audio Model
Apache-2.0
这是基于facebook/wav2vec2-base微调的音频处理模型,主要用于语音相关任务
音频分类
Transformers

M
hsalehILB
1
0
Modern Bert Multilingual
Apache-2.0
ModernBertMultilingual是一个从零开始训练的多语言模型,支持中文、英文、日文和韩文,在混合东亚语言文本任务中表现优异。
大型语言模型
Safetensors
支持多种语言
M
neavo
333
20
Safesql V1
Apache-2.0
基于Keras 3.x训练的恶意SQL检测模型,能识别多种SQL注入攻击向量
文本分类
英语
S
deathsaber93
41
1
Zlm B64 Le4 S8000
MIT
该模型是基于microsoft/speecht5_tts微调的语音合成(TTS)模型,主要用于文本到语音转换任务。
语音合成
Transformers

Z
mikhail-panzo
24
0
MIDI Transformer Mistral 10k Vocab 100k Steps
该模型是基于未知数据集进行微调的版本,具体任务和架构信息不详。
大型语言模型
Transformers

M
sunsetsobserver
44
1
Bart Multinews Model
这是一个基于multi_news数据集训练的文本摘要模型,能够从多文档输入中生成简洁的摘要。
文本生成
Transformers

B
usakha
18
0
Dreambooth Diffusion Clay Cups
基于Keras Dreambooth微调的文本生成图像模型,可生成孟加拉陶土艺术风格的各类物品图像
图像生成
D
keras-dreambooth
13
0
Bert Finetuned Small Data Uia
Apache-2.0
该模型是基于bert-base-uncased在未指定数据集上微调的版本,适用于自然语言处理任务。
大型语言模型
Transformers

B
eibakke
22
0
Fillmaskmodel
MIT
基于xlm-roberta-base微调的填充掩码模型,用于预测被遮蔽的文本片段
大型语言模型
Transformers

F
Okyx
46
1
Vit Base Patch16 224 Wi2
Apache-2.0
基于google/vit-base-patch16-224微调的视觉Transformer模型,适用于图像分类任务
图像分类
Transformers

V
Imene
21
0
Vit Base Patch16 224 In21k Wr
Apache-2.0
该模型是基于google/vit-base-patch16-224-in21k在未知数据集上微调的视觉Transformer模型,主要用于图像分类任务。
图像分类
Transformers

V
Imene
21
0
Vit Base Patch16 224 In21k Wwwwii
Apache-2.0
该模型是基于Google的ViT模型在未知数据集上微调的版本,主要用于图像分类任务。
图像分类
Transformers

V
Zynovia
22
0
Malaya Speech Fine Tune MrBrown 15 Jun
该模型是在uob_singlish数据集上对malay-huggingface/wav2vec2-xls-r-300m-mixed进行微调的版本,主要用于新加坡英语语音识别。
语音识别
Transformers

M
RuiqianLi
44
0
Wav2vec2 2 Gpt2 Regularisation
这是一个基于 LibriSpeech 数据集训练的自动语音识别(ASR)模型,能够将英语语音转换为文本。
语音识别
Transformers

W
sanchit-gandhi
20
0
Transformers Qa
Apache-2.0
该模型是基于distilbert-base-cased在SQuAD数据集上微调的问答模型,专为Keras.io的问答教程训练。
问答系统
Transformers

T
keras-io
23
4
Test Model
Apache-2.0
ResNet50 v1.5 是原始 ResNet50 v1 模型的改进版本,通过调整卷积步幅提升了约 0.5% 的 top1 准确率。
图像分类
Transformers

T
mchochowski
18
0
Alphadelay
Apache-2.0
基于facebook/wav2vec2-base微调的语音识别模型,词错误率(WER)为1.0
语音识别
Transformers

A
renBaikau
17
0
Wav2vec2 Large Lv60h 100h 2nd Try
基于LibriSpeech数据集微调的wav2vec2-large-lv60语音识别模型,支持英语语音转文本任务
语音识别
Transformers

W
patrickvonplaten
20
0
Wav2vec2 2 Bart Base
基于wav2vec2-base和bart-base在LibriSpeech ASR clean数据集上微调的语音识别模型
语音识别
Transformers

W
patrickvonplaten
493
5
Electra Large Discriminator Squad2 512
这是一个基于ELECTRA架构的大规模判别器模型,专门针对问答任务在SQuAD2.0数据集上进行了微调,能够处理有答案和无答案的问答场景。
问答系统
Transformers

E
ahotrod
8,925
6
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文