低显存需求
Wan2.1 VACE 1.3B
Apache-2.0
Wan2.1是一套开放且先进的视频生成基础模型,支持多种视频生成和编辑任务。
文本生成视频
支持多种语言
W
Wan-AI
1,520
44
Stable Diffusion 3.5 Large DF11
采用DFloat11格式对stabilityai/stable-diffusion-3.5-large进行无损压缩的版本,体积缩减30%,精度保持100%
图像生成
S
DFloat11
855
2
Qwen3 32B Quantized.w4a16
Apache-2.0
Qwen3-32B的INT4量化版本,通过权重量化减少75%的磁盘和GPU内存需求,保持高性能
大型语言模型
Transformers
Q
RedHatAI
2,213
5
Qwen3 8B FP8 Dynamic
Apache-2.0
Qwen3-8B-FP8-dynamic是基于Qwen3-8B模型通过FP8量化优化的版本,显著降低了GPU内存需求和磁盘空间占用,同时保持了原始模型的性能。
大型语言模型
Transformers
Q
RedHatAI
81
1
Wan2.1 T2V 14B
Apache-2.0
万2.1是一个开放且先进的大规模视频生成模型,具备顶尖性能,支持消费级GPU运行,并在多任务处理中表现卓越。
文本生成视频
支持多种语言
W
wan-community
17
0
Deepseek R1 Quantized.w4a16
MIT
DeepSeek-R1的INT4权重量化版本,通过减少权重位数降低GPU内存和磁盘空间需求约50%,保持原始模型性能。
大型语言模型
Safetensors
D
RedHatAI
119
4
Deepcoder 14B Preview Exl2
DeepCoder-14B-Preview是基于DeepSeek-R1-Distill-Qwen-14B开发的代码生成模型,专注于可验证编程问题的解决。
大型语言模型
英语
D
cgus
46
2
Hidream I1 Fast Nf4
MIT
HiDream-I1是拥有170亿参数的开源图像生成基础模型,4比特量化版本可在16GB显存下运行,实现快速高质量的图像生成。
图像生成
H
azaneko
19.22k
7
Wan2.1 I2V 14B 720P Diffusers
Apache-2.0
万2.1是一套全面开放的视频基础模型,具有顶尖性能,支持消费级GPU,多任务支持,视觉文本生成和高效视频VAE。
视频处理
支持多种语言
W
grnr9730
96
0
Wan2.1 T2V 14B
Apache-2.0
万2.1版是一个开放且先进的大规模视频生成模型,支持文本生成视频、图像生成视频等多种任务,适配消费级显卡。
文本生成视频
支持多种语言
W
Isi99999
6,470
0
Wan2.1 T2V 1.3B
Apache-2.0
万2.1是一套全面开放的视频基础模型,旨在突破视频生成的边界,支持中英双语文本生成视频、图像生成视频等多种任务。
文本生成视频
支持多种语言
W
Isi99999
40
0
Mistral Small 24B Instruct 2501 GPTQ G128 W4A16 MSE
Apache-2.0
这是mistralai/Mistral-Small-24B-Instruct-2501模型的4位量化版本,由ConfidentialMind.com量化,实现了更小、更快的模型,同时性能损失极小。
大型语言模型
英语
M
ConfidentialMind
93
1
Lumina Gguf
Lumina的GGUF量化版本是一个专为生成优质图像而设计的模型,支持基于文本提示生成高匹配度的图像。
图像生成
L
calcuis
627
11
Pixart
基于PixArt-alpha/PixArt-XL-2-1024-MS的量化版本,支持高效文生图任务
图像生成
英语
P
calcuis
459
2
Svdq Int4 Flux.1 Schnell
Apache-2.0
FLUX.1-schnell的INT4量化版本,基于SVDQuant技术实现高效文本生成图像
文本生成图像
英语
S
mit-han-lab
20.14k
9
Sd3.5 Medium Gguf
其他
Stable Diffusion 3.5 Medium的GGUF量化版本,适用于文生图任务,支持在老旧设备上运行。
图像生成
英语
S
calcuis
3,232
13
Sd3.5 Large Turbo
其他
Stable Diffusion 3.5 Large Turbo的GGUF量化版本,适用于图像生成任务,提供更高效的运行性能。
文本生成图像
英语
S
calcuis
108
5
Llama 3.2 1B Instruct FP8
Llama-3.2-1B-Instruct的FP8量化版本,适用于多语言场景的商业和研究用途,性能接近原始模型。
大型语言模型
Safetensors
支持多种语言
L
RedHatAI
1,718
3
Hands XL
这是一个结合了Hands XL、SD 1.5和FLUX.1-dev技术的文本生成图像模型,专注于高质量图像生成。
图像生成
H
xyy1551308532
27
2
Llama 3.1 8B Instruct FP8
Meta Llama 3.1 8B Instruct模型的FP8量化版本,采用优化的transformer架构的自回归语言模型,支持128K上下文长度。
大型语言模型
Transformers
L
nvidia
3,700
21
FLUX.1 Dev Qint4
其他
FLUX.1-dev 是一个文本生成图像的模型,已使用 Optimum Quanto 量化为 INT4 格式,适用于非商业用途。
文本生成图像
英语
F
Disty0
455
12
Meta Llama 3.1 8B Instruct GPTQ INT4
这是Meta-Llama-3.1-8B-Instruct模型的INT4量化版本,使用GPTQ算法进行量化,适用于多语言对话场景。
大型语言模型
Transformers
支持多种语言
M
hugging-quants
128.18k
25
Meta Llama 3.1 405B Instruct FP8 Dynamic
Meta-Llama-3.1-405B-Instruct的FP8量化版本,适用于多语言的商业和研究用途,特别优化用于助手机器人场景。
大型语言模型
Transformers
支持多种语言
M
RedHatAI
97
15
Meta Llama 3.1 8B Instruct FP8
Meta-Llama-3.1-8B-Instruct的FP8量化版本,适用于多语言的商业和研究用途,特别优化用于类似助手的聊天场景。
大型语言模型
Transformers
支持多种语言
M
RedHatAI
361.53k
42
Deepseek Coder V2 Lite Instruct FP8
其他
DeepSeek-Coder-V2-Lite-Instruct的FP8量化版本,适用于英语的商业和研究用途,优化了推理效率。
大型语言模型
Transformers
D
RedHatAI
11.29k
7
Mapo Beta
MaPO是一种无需参考样本、高效节能且内存友好的文生图扩散模型对齐方法
文本生成图像
M
mapo-t2i
30
6
Koala Lightning 700m
KOALA-Lightning-700M是基于SDXL-Lightning通过知识蒸馏训练的高效文本生成图像模型,在保持生成质量的同时显著提升推理速度
图像生成
K
etri-vilab
170
6
Koala Lightning 1b
KOALA-Lightning-1B是基于SDXL-Lightning的知识蒸馏模型,通过压缩U-Net结构实现高效文本生成图像,参数规模1.16B
文本生成图像
K
etri-vilab
390
7
Dreamshaper Xl Lightning
基于Stable Diffusion XL微调的高效文本到图像生成模型,支持快速生成艺术性图像
图像生成
支持多种语言
D
Lykon
10.57k
59
Sotemixv2
Openrail
SoteMix V2.1 是一个基于稳定扩散的高分辨率文本生成图像模型,专注于艺术和动漫风格的图像生成。
图像生成
支持多种语言
S
Disty0
25
3
Lcm Lora Ssd 1b
MIT
基于SSD-1B模型通过LCM-LoRA技术微调的文本生成图像模型,支持快速生成高质量图像
文本生成图像
L
openskyml
73
1
Llama 2 13B Fp16 French
Apache-2.0
基于Llama-2-13b-chat微调的法语问答模型,支持巴洛克风格文本生成等任务
大型语言模型
支持多种语言
L
Nekochu
79
11
Tiny Sd
Openrail
基于Realistic_Vision_V4.0模型蒸馏优化的轻量级文本生成图像模型,速度比基础SD1.5提升80%
图像生成
T
segmind
23.05k
63
Llava 13b V0 4bit 128g
LLaVA是一个结合视觉与语言的多模态模型,基于LLaMA架构,支持图像理解和对话生成。
文本生成图像
Transformers
L
wojtab
167
79
Gpt J 6B 8bit
Apache-2.0
这是EleutherAI GPT-J 60亿参数模型的8位量化版本,专为在有限GPU资源(如Colab或1080Ti)上运行和微调而优化。
大型语言模型
Transformers
英语
G
hivemind
176
131