低资源训练
Nanovlm 222M
Apache-2.0
nanoVLM 是一款极简轻量级的视觉语言模型(VLM),专为高效训练和实验而设计。
图像生成文本
Safetensors
N
lusxvr
2,441
73
Flan T5 Base Peft Dialogue Summary Before
Apache-2.0
基于google/flan-t5-base模型在对话摘要任务上的微调版本,使用PEFT方法进行参数高效微调
文本生成
TensorBoard
英语
F
agoor97
20
0
Speecht5 Elise
MIT
基于microsoft/speecht5_tts微调的语音合成模型,支持文本转语音任务
语音合成
Transformers
S
suayptalha
60
2
Demo Text To Speech
MIT
基于microsoft/speecht5_tts微调的文本转语音模型
语音合成
Transformers
D
benjaminogbonna
79
2
Orpheus Bangla Tts Gguf
Apache-2.0
Orpheus 3B TTS模型针对孟加拉语的微调版本,使用955个音频样本训练,适合实验性孟加拉语语音合成
语音合成
其他
O
asif00
55
0
Bert Practice Classifier
Apache-2.0
基于distilbert-base-uncased微调的文本分类模型,在特定任务上进行了训练。
文本分类
Transformers
B
RayenLLM
181
1
MMS TTS THAI FEMALEV2
一个基于VITS架构的泰语女性语音文本转语音(TTS)模型,支持高质量的泰语语音合成。
语音合成
其他
M
VIZINTZOR
47
0
Multilingual ModernBert Base Preview
MIT
由Algomatic团队开发的多语言BERT模型,支持填充掩码任务,具有8192的上下文长度和151,680的词汇量。
大型语言模型
M
makiart
60
4
Auroracap 7B VID Xtuner
Apache-2.0
AuroraCap是一个用于图像和视频字幕的多模态大语言模型,专注于高效和详细的视频字幕生成。
视频生成文本
A
wchai
31
5
Shuka 1
Shuka v1 是一款原生支持印度语言音频理解的语言模型,结合自主研发的音频编码器和Llama3-8B-Instruct解码器,支持多语言零样本问答任务。
音频生成文本
Transformers
支持多种语言
S
sarvamai
729
54
Biggie SmoLlm 0.15B Base
MIT
基于SmolLM-135M的微型语言模型升级版,参数规模0.18B,适用于训练场景,具有优异的推理速度和连贯性表现
大型语言模型
Transformers
B
nisten
944
235
Musicgen Melody Lora Punk Colab
这是一个基于facebook/musicgen-melody模型在微型朋克数据集上微调的文本转音频模型
音频生成
TensorBoard
M
ylacombe
15
1
Musicgen Melody Punk Lora
基于facebook/musicgen-melody微调的LoRA模型,专注于生成朋克风格音乐
音频生成
M
ylacombe
20
0
Bitnet B1 58 Xl
MIT
BitNet b1.58 3B是一种1位量化的大型语言模型,使用RedPajama数据集训练了1000亿token,在保持性能的同时显著降低了计算资源需求。
大型语言模型
Transformers
B
1bitLLM
10.64k
34
Pegasus Samsum
该模型是在samsum数据集上对google/pegasus-cnn_dailymail进行微调的版本,主要用于文本摘要任务。
文本生成
Transformers
P
Feluda
98
3
Tinymistral 248M
Apache-2.0
基于Mistral 7B模型缩减至2.48亿参数的语言模型,专为文本生成任务设计,适用于下游任务微调。
大型语言模型
Transformers
英语
T
Locutusque
1,127
46
Gugugo Koen 7B V1.1
Apache-2.0
Gugugo-koen-7B-V1.1 是一个基于 Llama-2-ko-7b 的韩英互译模型,专门用于韩语和英语之间的高质量翻译任务。
机器翻译
Transformers
支持多种语言
G
squarelike
94
17
Tinystories Gpt2 3M
这是一个小型GPT-2模型,在TinyStories V2数据集上预训练,具有3M可训练参数,表现出良好的文本生成连贯性。
大型语言模型
Transformers
英语
T
calum
637
7
News Sentimental Model Buy Neutral Sell
基于ProsusAI/finbert微调的金融新闻情感分析模型,用于预测新闻情感倾向(买入/中性/卖出)
文本分类
Transformers
N
incredible45
14
1
Wav2musicgenre
Apache-2.0
基于facebook/wav2vec2-base微调的音频分类模型,用于识别音乐流派
音频分类
Transformers
W
ramonpzg
20
0
Gender Classification
一个基于文本或图像数据进行性别分类的模型,具体训练数据未指定。
文本分类
Transformers
G
hts98
19
0
Tinystories 33M
基于TinyStories数据集训练的33M参数小型语言模型,专为生成儿童故事设计
大型语言模型
Transformers
T
roneneldan
25.99k
97
Tinystories 1M
TinyStories-1M 是一个基于 TinyStories 数据集训练的小型语言模型,专门设计用于生成适合儿童阅读的简单故事。
大型语言模型
Transformers
T
roneneldan
37.99k
49
Gpt2023
MIT
基于GPT-2架构的124M参数语言模型,在2.23B token的多样化数据上微调,具备改进的文本生成能力
大型语言模型
Transformers
英语
G
crumb
136
18
Wav2vec2 Large Xlsr 53 Gender Recognition Librispeech
Apache-2.0
基于Librispeech-clean-100数据集微调的性别识别模型,在测试集上F1分数达0.9993
音频分类
Transformers
W
alefiury
182.33k
42
Audio Class Finetuned
Apache-2.0
该模型是基于facebook/wav2vec2-base在superb数据集上微调的音频分类模型,在评估集上取得了0.6578的准确率。
音频分类
Transformers
A
Chemsseddine
20
0
Resnet 18 1
Tiny ImageNet 是一个小型图像分类数据集,用于计算机视觉任务的基准测试和模型训练。
图像分类
Transformers
R
jsli96
35
1
Firefly Bloom 1b4
开源的中文对话式大语言模型,采用指令微调技术优化,专注于中华文化相关任务,参数量1.4B/2.6B
大型语言模型
Transformers
F
YeungNLP
55
23
Whisper Large V2 Japanese 5k Steps
Apache-2.0
基于OpenAI的whisper-large-v2模型在日语CommonVoice数据集上微调的语音识别模型,训练5000步,词错误率0.7449
语音识别
Transformers
日语
W
clu-ling
144
20
Mt5 Small Finetuned 28jan 2
Apache-2.0
基于google/mt5-small微调的文本摘要生成模型,支持多语言文本摘要任务。
文本生成
Transformers
M
mqy
14
0
Gpt2 Finetuned Cnn Summarization V2
MIT
基于GPT-2微调的文本摘要生成模型
文本生成
Transformers
G
gavin124
266
7
Vit Base Beans Demo V5
Apache-2.0
基于Google的ViT基础模型在图像文件夹数据集上微调的视觉Transformer模型
图像分类
Transformers
V
clp
13
0
Vit Base Beans
Apache-2.0
该模型是基于timm/resnet18.a1_in1k在beans数据集上微调的图像分类模型,准确率为69.17%。
图像分类
Transformers
V
amyeroberts
19
0
Sd Onepiece Diffusers4
Apache-2.0
基于Diffusers库训练的稳定扩散模型,使用OnePiece动漫相关数据集进行训练
图像生成
TensorBoard
英语
S
YaYaB
18
11
Bart Base Few Shot K 256 Finetuned Squad Seed 0
Apache-2.0
该模型是基于facebook/bart-base在squad数据集上微调的版本,适用于问答任务。
问答系统
Transformers
B
anas-awadalla
13
0
Wav2vec Test
这是一个基于wav2vec架构的语音处理测试模型,具体用途和训练数据未明确说明。
语音识别
Transformers
W
eugenetanjc
73
0
Test Demo Colab
这是一个自动生成的测试模型,主要用于演示和实验目的。
大型语言模型
Transformers
T
YYSH
16
0
Albert Sentiment
基于ALBERT预训练模型微调的繁体中文情感分类模型,支持负面(0)和正面(1)两种情感分类。
文本分类
Transformers
其他
A
clhuang
217
4
Wav2vec2 Base Timit Demo Colab53
Apache-2.0
基于facebook/wav2vec2-base模型微调的语音识别模型,适用于TIMIT数据集
语音识别
Transformers
W
Mudassar
22
0
T5 Small 6 3 Hi En To En
这是一个基于T5-small架构的序列到序列模型,专门用于将印地英语混合文本(hi_en)翻译为标准英语(en)。
机器翻译
Transformers
T
sayanmandal
38
2