中文生成
Qwen3 235B A22B 4bit DWQ
Apache-2.0
Qwen3-235B-A22B-4bit-DWQ是基于Qwen3-235B-A22B-8bit模型转换而来的4位量化版本,适用于文本生成任务。
大型语言模型
Q
mlx-community
70
1
Qwen3 30B A3B 4bit DWQ 0508
Apache-2.0
Qwen3-30B-A3B-4bit-DWQ-0508是基于Qwen/Qwen3-30B-A3B转换至MLX格式的4位量化模型,适用于文本生成任务。
大型语言模型
Q
mlx-community
410
12
Qwen3 14B 4bit AWQ
Apache-2.0
Qwen3-14B-4bit-AWQ是基于Qwen/Qwen3-14B转换而来的MLX格式模型,使用AWQ量化技术将模型压缩至4bit,适用于MLX框架的高效推理。
大型语言模型
Q
mlx-community
252
2
Qwen3 8B 4bit DWQ
Apache-2.0
Qwen3-8B-4bit-DWQ 是基于 Qwen/Qwen3-8B 转换至 MLX 格式的 4 位量化版本,适用于在 Apple 设备上高效运行。
大型语言模型
Q
mlx-community
306
1
Mlabonne Qwen3 4B Abliterated GGUF
Qwen3-4B-abliterated的量化版本,使用llama.cpp进行量化,支持多种量化类型,适用于文本生成任务。
大型语言模型
M
bartowski
3,623
3
Qwen3 235B A22B 4bit
Apache-2.0
该模型是基于Qwen/Qwen3-235B-A22B转换至MLX格式的4位量化版本,适用于文本生成任务。
大型语言模型
Q
mlx-community
974
6
Qwen3 30B A3B MLX 8bit
Apache-2.0
该模型是基于Qwen/Qwen3-30B-A3B转换而来的MLX格式模型,支持8位量化,适用于文本生成任务。
大型语言模型
Q
lmstudio-community
7,759
6
Qwen3 30B A3B MLX 4bit
Apache-2.0
Qwen3-30B-A3B-MLX-8bit 是基于 Qwen/Qwen3-30B-A3B 转换的 8 位量化版本,专为 MLX 框架优化,适用于文本生成任务。
大型语言模型
Q
lmstudio-community
4,199
19
Qwen3 8B 4bit
Apache-2.0
这是Qwen/Qwen3-8B模型的4位量化版本,已转换为MLX框架格式,适用于苹果芯片设备的高效推理。
大型语言模型
Q
mlx-community
2,131
2
Qwen3 30B A3B 4bit
Apache-2.0
Qwen3-30B-A3B-4bit是基于Qwen/Qwen3-30B-A3B转换的4位量化版本,适用于在MLX框架下进行高效的文本生成任务。
大型语言模型
Q
mlx-community
2,394
7
Qwen3 4B 4bit
Apache-2.0
Qwen3-4B-4bit 是从 Qwen/Qwen3-4B 转换至 MLX 格式的 4 位量化版本,适用于在 Apple 芯片上高效运行。
大型语言模型
Q
mlx-community
7,400
6
Qwen3 14B MLX 4bit
Apache-2.0
Qwen3-14B-4bit是基于Qwen/Qwen3-14B模型使用mlx-lm转换的4位量化版本,适用于文本生成任务。
大型语言模型
Q
lmstudio-community
3,178
4
Qwq 32B Bnb 4bit
Apache-2.0
QwQ-32B的4位量化版本,使用Bitsandbytes技术进行优化,适用于资源受限环境下的高效推理
大型语言模型
Transformers
Q
onekq-ai
167
2
Bloom 1b4 Zh
Openrail
基于bigscience/bloom-1b7架构开发的中文语言模型,参数规模14亿,通过压缩词表降低显存占用
大型语言模型
Transformers
中文
B
Langboat
5,157
18