低内存占用
Qwen3 30B A3B GGUF
Apache-2.0
Qwen3-30B-A3B的量化版本,采用先进的非线性SotA量化技术,在给定内存占用下提供同类最佳的质量。
大型语言模型
Q
ubergarm
780
10
Qwen Qwen3 8B GGUF
Apache-2.0
Qwen3-8B的量化版本,使用llama.cpp的imatrix选项进行量化,适用于文本生成任务。
大型语言模型
Q
bartowski
23.88k
18
Glm 4 9b Chat Abliterated GGUF
其他
基于GLM-4架构的9B参数聊天模型,支持中英文对话,经过量化处理适用于不同硬件环境
大型语言模型
支持多种语言
G
bartowski
2,676
11
Falcon E 1B Base
其他
Falcon-E-1B-Base 是由 TII 开发的一个高效 1.58 位语言模型,采用纯 Transformer 架构,专为边缘设备优化设计。
大型语言模型
Transformers
F
tiiuae
53
4
ARPG
MIT
ARPG是一种创新的自回归图像生成框架,能够通过类GPT因果架构实现BERT式掩码建模。
图像生成
A
hp-l33
68
2
Svdq Int4 Flux.1 Fill Dev
其他
FLUX.1-Fill-dev的INT4量化版本,能够根据文本描述填充现有图像中的区域,提供约4倍内存节省和2-3倍速度提升。
图像生成
英语
S
mit-han-lab
62.61k
14
Impish Mind 8B GGUF
Apache-2.0
基于SicariusSicariiStuff/Impish_Mind_8B模型的量化版本,使用llama.cpp工具进行多种量化处理,适用于文本生成任务。
大型语言模型
英语
I
bartowski
532
9
Esmplusplus Small
ESM++是对ESMC的忠实实现,支持批处理且兼容标准Huggingface接口,无需依赖ESM Python包。
蛋白质模型
Transformers
E
Synthyra
6,460
14
FLUX.1 Lite GGUF
其他
Flux.1 Lite是从FLUX.1-dev模型蒸馏出的80亿参数Transformer模型,专为文本生成图像任务优化,在保持精度的同时减少内存占用并提升速度。
文本生成图像
F
gpustack
5,452
3
Blip Image Captioning Base Bf16
MIT
该模型是Salesforce/blip-image-captioning-base的量化版本,通过降低浮点精度至bfloat16,内存占用减少50%,适用于图像到文本生成任务。
图像生成文本
Transformers
B
gospacedev
20
1
Recurrentgemma 2b It
RecurrentGemma是基于Google新型循环架构构建的开源语言模型,提供更高效的长序列处理能力
大型语言模型
Transformers
R
google
5,418
110
Whisper Large V3 French Distil Dec16
MIT
Whisper-Large-V3-法语蒸馏版是通过将解码器层数从32层缩减至16层,并基于大规模数据集进行蒸馏训练而得到的法语语音识别模型。
语音识别
Transformers
法语
W
bofenghuang
2,461
10