小参数量
T5 Small Text Summarization
Apache-2.0
基于T5-small架构在xsum数据集上微调的文本摘要模型,能够生成简洁的摘要内容。
文本生成
Transformers
T
bhuvaneswari
27
0
Qwenphi 4 0.5b Draft
Apache-2.0
基于Qwen2.5-0.5B-Instruct构建,移植了microsoft/phi-4的词表,可作为Phi-4的草稿模型使用。
大型语言模型
Transformers
支持多种语言
Q
rdsm
27
4
Japanese Parler Tts Mini Bate
其他
Parler-TTS Mini v1 是一个基于日语的小型文本转语音模型,支持高质量的语音合成。
语音合成
Transformers
日语
J
2121-8
184
12
Clip Vit Tiny Random Patch14 336
这是一个用于调试的小型CLIP模型,基于ViT架构,随机初始化权重。
文本生成图像
Transformers
C
yujiepan
14.47k
0
Vda Fine Tuned 2
该模型是基于GroNLP/gpt2-small-italian微调的版本,适用于意大利语文本生成任务。
大型语言模型
Transformers
V
calogero-jerik-scozzaro
15
1
Llama Lite 134m
Apache-2.0
134M参数、768维度的Llama精简版,用于生成句子嵌入向量
文本嵌入
Transformers
L
skeskinen
93
13
Convnextv2 Nano.fcmae
ConvNeXt-V2自监督特征表示模型,采用全卷积掩码自编码器框架(FCMAE)进行预训练,适用于图像分类和特征提取任务。
图像分类
Transformers
C
timm
265
0
Electra Contrastdata Squad
Apache-2.0
该模型是基于SQuAD数据集对ELECTRA-small判别器进行微调的版本,适用于问答任务。
问答系统
Transformers
E
mlxen
19
0
Mt5 Small Finetuned Amazon En Zh TW
Apache-2.0
该模型是基于google/mt5-small在亚马逊数据集上微调的文本摘要模型,支持英文到繁体中文的摘要生成任务。
文本生成
Transformers
M
peterhsu
28
0
Roformer Chinese Small
RoFormer是一种基于旋转位置编码(RoPE)增强的Transformer模型,适用于中文文本处理任务。
大型语言模型
中文
R
junnyu
599
2
Electra Small Turkish Uncased Discriminator Finetuned Lr 2e 05 Epochs 3
该模型是基于ELECTRA架构的土耳其语小型判别器模型,在土耳其语SQuAD数据集上进行了微调
问答系统
Transformers
E
husnu
20
0
Deberta V3 Small Finetuned Cola
MIT
该模型是在GLUE COLA数据集上对DeBERTa-v3-small进行微调的版本,用于语言学可接受性判断任务。
文本分类
Transformers
英语
D
mrm8488
16
3
Deit Small Distilled Patch16 224
Apache-2.0
蒸馏版DeiT模型在ImageNet-1k上以224x224分辨率进行了预训练和微调,使用蒸馏方法从教师CNN中学习
图像分类
Transformers
D
facebook
2,253
6
Tapas Small Masklm
TAPAS (Table Parser) 是谷歌研究开发的基于表格的预训练语言模型,专门用于处理表格数据和自然语言查询。
大型语言模型
Transformers
T
google
14
1