低显存优化
Mochi Lora
Apache-2.0
基于Mochi-1预览模型进行LoRA微调的版本,专注于文本到视频生成任务
文本生成视频
M
weathon
112
1
Qwen2.5 Omni 7B AWQ
其他
Qwen2.5-Omni是一款端到端多模态模型,能够感知包括文本、图像、音频和视频在内的多种模态,同时以流式方式生成文本和自然语音响应。
多模态融合
Transformers
英语
Q
Qwen
77
8
LTX Video 0.9.7 Dev
其他
首个基于DiT架构的实时高质量视频生成模型,能以30帧/秒生成1216×704分辨率视频
视频处理
英语
L
Lightricks
477
7
GLM4 32B Neon V2
MIT
基于 GLM-4-32B-0414 的角色扮演微调版本,表现优秀,个性鲜明,风格多样,文笔优美。
大型语言模型
Transformers
英语
G
allura-org
171
7
Orpheus Awq
Apache-2.0
Orpheus-3b FT的4位AWQ量化版本,专为文本转语音任务优化,支持语音克隆功能。
语音合成
英语
O
YaTharThShaRma999
48
3
Deepseek V3 0324 GGUF UD
MIT
DeepSeek-V3-0324 是由 Unsloth 提供的动态量化版本,支持在 llama.cpp、LMStudio 等推理框架中运行。
大型语言模型
英语
D
unsloth
6,270
6
Auraflow DomoKun LoRA Rank8
Apache-2.0
基于fal/AuraFlow训练的标准PEFT LoRA模型,专注于生成多摩君形象的文生图和图生图任务。
图像生成
A
bghira
532
0
FLUX Hyperscale Fused
其他
FLUX是一个融合了5个高质量微调适配器的文本生成图像模型,能够生成多种风格的逼真图像
图像生成
英语
F
minpeter
131
2
Deepseek V3 0324 GGUF
MIT
当前V3-0324模型在该尺寸类别中表现最佳的量化版本,在保持性能接近Q8_0的同时显著减小了体积
大型语言模型
其他
D
ubergarm
1,712
20
Wan2.1 Fun 1.3B Control
Apache-2.0
Wan2.1-Fun-1.3B是一个文本生成视频的模型,支持多分辨率训练及首尾帧预测。
文本生成视频
支持多种语言
W
alibaba-pai
22.19k
97
Origami WanLora
Apache-2.0
这是一个基于Wan2.1-T2V-14B模型的LoRA适配器,用于生成折纸风格的视频。
文本生成视频
英语
O
shauray
50
2
Phi3 Uncensored Chat
MIT
基于microsoft/phi-3-mini-4k-instruct微调优化的版本,专为与各种角色进行角色扮演对话而设计
大型语言模型
Transformers
英语
P
luvGPT
77
6
Wan2.1 Fun 1.3B InP
Apache-2.0
Wan2.1-Fun-1.3B是由阿里巴巴PAI团队开发的文本生成视频模型,支持多分辨率训练及首尾帧预测。
文本生成视频
支持多种语言
W
alibaba-pai
6,753
25
Steamboat Willie 1.3b
基于蒸汽船威利动画片段训练的LoRA模型,用于生成黄金时代动画风格的文本到视频内容
文本生成视频
S
benjamin-paine
90
3
SDXL GGUF
MIT
Stable Diffusion XL的GGUF格式量化版本,提供不同量化级别以适应不同硬件配置。
文本生成图像
S
HyperX-Sentience
2,189
5
Cogview4 6B
Apache-2.0
CogView4-6B 是一个基于 GLM-4-9B 基础模型的文生图模型,支持中文和英文,能够生成高质量的图像。
文本生成图像
支持多种语言
C
THUDM
333.85k
216
Qwenfluxprompt
Apache-2.0
这是一个为Wan2.1 14B视频生成模型训练的LoRA,适用于文本转视频和图像转视频任务。
视频处理
支持多种语言
Q
mam33
25
0
Cat Text To Video 2.3b
Apache-2.0
基于条件增强的文本生成视频模型,通过时序条件变换器扩展生成片段并实现平滑过渡,支持提示词插值功能
文本生成视频
英语
C
motexture
25
1
Deepseek R1 AWQ
MIT
DeepSeek R1模型的AWQ量化版本,优化了float16溢出问题,支持高效推理部署
大型语言模型
Transformers
支持多种语言
D
cognitivecomputations
30.46k
77
Minicpm O 2 6 Int4
MiniCPM-o 2.6的int4量化版本,显著降低GPU显存占用,支持多模态处理能力。
文本生成音频
Transformers
其他
M
openbmb
4,249
42
Shu Qi
FLUX.1-dev 是一个基于稳定扩散(Stable Diffusion)技术的文本生成图像模型,支持LoRA微调,适用于创意图像生成任务。
图像生成
S
Jonny001
425
2
Illustrious
Apache-2.0
Illustrious模型是一个文本生成图像的AI模型,支持通过文本描述生成高质量图像。
文本生成图像
英语
I
calcuis
3,975
9
Controlnet Kohaku Canny Sdxl Fp16
基于Stable Diffusion XL的ControlNet模型,专注于通过Canny边缘检测实现精确的图像生成控制
图像生成
C
r3gm
19
0
Hunyuanvideo Gguf
其他
腾讯幻影视频模型的GGUF量化版本,专为ComfyUI设计,用于文本生成视频任务
文本生成视频
H
city96
6,142
162
Omnigen V1 Bnb 8bit
MIT
OmniGen-v1的8比特量化版本,适用于文生图和图生图任务,支持多模态输入。
文本生成图像
O
gryan
76
0
FLUX.1 Fill Dev GGUF
其他
FLUX.1-Fill-dev 是一个基于 FLUX 技术的文本生成图像模型,专注于图像填充任务。
文本生成图像
英语
F
second-state
691
3
Stable Diffusion V3 5 Large GGUF
其他
Stable Diffusion 3.5大模型是一款多模态扩散变换器(MMDiT)文生图模型,在图像质量、文字排版、复杂提示词理解和资源效率方面均有显著提升。
文本生成图像
英语
S
gpustack
13.33k
7
Aria Sequential Mlp Bnb Nf4
Apache-2.0
基于Aria-sequential_mlp的BitsAndBytes NF4量化版本,适用于图像文本到文本任务,显存需求约15.5 GB。
图像生成文本
Transformers
A
leon-se
76
11
Flux Actors Face Inset Cig Cards LoKr
其他
基于FLUX.1-dev的LyCORIS适配器,专注于文本生成图像任务,特别适合工作环境使用。
图像生成
F
davidrd123
20
1
Flux.1 Lite 8B Alpha
其他
Flux.1精简版是从FLUX.1-dev模型蒸馏而来的8B参数Transformer模型,在保持相同精度(bfloat16)的同时,内存占用减少7GB,运行速度提升23%。
文本生成图像
F
Freepik
1,810
415
Flux Fusion V2 4step Merge Gguf Nf4
其他
由Schnell、微调版Dev和Hyper合并而成的文本生成图像模型,推荐步数为4-8步,4步时质量显著提升
文本生成图像
英语
F
Anibaaal
1,212
10
Seba Ai
MIT
基于CogVideoX-5b的视频生成模型,能够根据文本描述生成高质量视频内容
文本生成视频
英语
S
GlitchXRiot
13
2
Cogvideox 2b
Apache-2.0
CogVideoX是源自清影的视频生成模型的开源版本,2B版本为入门级模型,平衡兼容性,运行和二次开发成本低。
文本生成视频
英语
C
rttrsabc
22
1
Chromafur Alpha Gguf
其他
ChromaFur Alpha 是一个文本生成图像的模型,已转换为GGUF格式,适用于低端GPU或偏好快速加载的用户。
图像生成
C
WWizrd
13
1
Cogvideox 2b
Apache-2.0
CogVideoX是源自清影的开源视频生成模型,2B版本是入门级模型,平衡兼容性,运行和二次开发成本低。
文本生成视频
英语
C
THUDM
40.55k
324
Herobophades 3x7B
Apache-2.0
HeroBophades-3x7B是一个基于mergekit构建的实验性专家混合(LLM)模型,设计为在12GB显存的GPU上以4位模式运行。
大型语言模型
Transformers
H
nbeerbower
20
3
Erosumika 7B V3 7.1bpw Exl2
Erosumika-7B-v3是一个7.1bpw exl2量化的语言模型,适合在8GB显存的GPU上运行16k上下文。
大型语言模型
Transformers
英语
E
Natkituwu
24
1
Mangaka
其他
专为生成动漫/漫画分镜而设计的稳定扩散模型
图像生成
其他
M
parsee-mizuhashi
472
5
Animatediff Motion Adapter V1 5 3
AnimateDiff是一种能够利用现有Stable Diffusion文生图模型创建视频的技术,通过插入运动模块层实现图像帧间的连贯运动。
视频处理
A
guoyww
800
8
ALMA 7B Ja V2
ALMA-7B-Ja-V2是一款支持日英互译的机器翻译模型,在旧版基础上追加训练,性能更优。
机器翻译
Transformers
支持多种语言
A
webbigdata
118
18