Deepseek R1 0528 4bit
DeepSeek-R1-0528-4bit 是一个基于 DeepSeek-R1-0528 转换而来的 4 位量化模型,专为 MLX 框架优化。
大型语言模型
D
mlx-community
157
9
Llama 3.3 70B Instruct 4bit DWQ
基于Llama 3.3 70B指令微调模型的4位DWQ量化版本,适用于MLX框架的高效推理
大型语言模型
支持多种语言
L
mlx-community
140
2
Devstral Small 2505 4bit DWQ
Apache-2.0
这是一个基于MLX格式的4位量化语言模型,适用于文本生成任务。
大型语言模型
支持多种语言
D
mlx-community
238
3
Medgemma 27b Text It 4bit
其他
MedGemma-27B-Text-IT-4bit是基于Google的MedGemma-27B-Text-IT模型转换而来的MLX格式模型,专为医疗和临床推理任务优化。
大型语言模型
M
mlx-community
193
3
Gemma 3 27b It 4bit DWQ
这是一个基于Google Gemma 3 27B IT模型转换的4位量化版本,专为MLX框架优化。
大型语言模型
G
mlx-community
102
1
Qwen3 235B A22B 4bit DWQ
Apache-2.0
Qwen3-235B-A22B-4bit-DWQ是基于Qwen3-235B-A22B-8bit模型转换而来的4位量化版本,适用于文本生成任务。
大型语言模型
Q
mlx-community
70
1
Qwen3 30B A3B 4bit DWQ 05082025
Apache-2.0
这是一个基于Qwen/Qwen3-30B-A3B转换至MLX格式的4位量化模型,适用于文本生成任务。
大型语言模型
Q
mlx-community
240
5
QWEN 3B INSTRUC Medical COT SFT 2kstep 4kcol
Apache-2.0
基于Qwen2.5架构的3B参数指令微调模型,使用Unsloth和Huggingface TRL库优化训练速度
大型语言模型
Transformers
英语
Q
hailong18102002
30
1
Qwen3 30B A3B 4bit DWQ 0508
Apache-2.0
Qwen3-30B-A3B-4bit-DWQ-0508是基于Qwen/Qwen3-30B-A3B转换至MLX格式的4位量化模型,适用于文本生成任务。
大型语言模型
Q
mlx-community
410
12
Qwen3 14B 4bit AWQ
Apache-2.0
Qwen3-14B-4bit-AWQ是基于Qwen/Qwen3-14B转换而来的MLX格式模型,使用AWQ量化技术将模型压缩至4bit,适用于MLX框架的高效推理。
大型语言模型
Q
mlx-community
252
2
Qwen3 8B 4bit DWQ
Apache-2.0
Qwen3-8B-4bit-DWQ 是基于 Qwen/Qwen3-8B 转换至 MLX 格式的 4 位量化版本,适用于在 Apple 设备上高效运行。
大型语言模型
Q
mlx-community
306
1
Josiefied Qwen3 1.7B Abliterated V1 4bit
基于Qwen3-1.7B的4位量化版本,适用于MLX框架的轻量级大语言模型
大型语言模型
J
mlx-community
135
2
Qwen3 235B A22B 4bit
Apache-2.0
该模型是基于Qwen/Qwen3-235B-A22B转换至MLX格式的4位量化版本,适用于文本生成任务。
大型语言模型
Q
mlx-community
974
6
Qwen3 8B 4bit
Apache-2.0
这是Qwen/Qwen3-8B模型的4位量化版本,已转换为MLX框架格式,适用于苹果芯片设备的高效推理。
大型语言模型
Q
mlx-community
2,131
2
Qwen3 30B A3B 4bit
Apache-2.0
Qwen3-30B-A3B-4bit是基于Qwen/Qwen3-30B-A3B转换的4位量化版本,适用于在MLX框架下进行高效的文本生成任务。
大型语言模型
Q
mlx-community
2,394
7
Qwen3 4B 4bit
Apache-2.0
Qwen3-4B-4bit 是从 Qwen/Qwen3-4B 转换至 MLX 格式的 4 位量化版本,适用于在 Apple 芯片上高效运行。
大型语言模型
Q
mlx-community
7,400
6
Qwen3 14B MLX 4bit
Apache-2.0
Qwen3-14B-4bit是基于Qwen/Qwen3-14B模型使用mlx-lm转换的4位量化版本,适用于文本生成任务。
大型语言模型
Q
lmstudio-community
3,178
4
GLM Z1 32B 0414 4bit
MIT
该模型是基于THUDM/GLM-Z1-32B-0414转换的4位量化版本,适用于文本生成任务。
大型语言模型
支持多种语言
G
mlx-community
225
2
Bge Multilingual Gemma2 GPTQ
Apache-2.0
这是BAAI/bge-multilingual-gemma2模型的4位GPTQ量化版本,支持多语言文本嵌入任务。
文本嵌入
Transformers
B
shuyuej
34
5
UI TARS 1.5 7B 4bit
Apache-2.0
UI-TARS-1.5-7B-4bit是一个多模态模型,专注于图像文本到文本的转换任务,支持英文语言。
图像生成文本
Transformers
支持多种语言
U
mlx-community
184
1
Dia 1.6B 4bit
Apache-2.0
Dia-1.6B-4bit 是一个基于 MLX 格式的 4 位量化文本转语音模型,由 nari-labs/Dia-1.6B 转换而来。
语音合成
英语
D
mlx-community
168
4
VL Rethinker 72B 4bit
Apache-2.0
VL-Rethinker-72B-4bit是一个基于Qwen2.5-VL-7B-Instruct的多模态模型,支持视觉问答任务,已转换为MLX格式以便在苹果设备上高效运行。
文本生成图像
Transformers
英语
V
mlx-community
26
0
3b De Ft Research Release 4bit
Apache-2.0
这是一个基于MLX格式转换的德语文本转语音模型,支持德语语言处理任务。
语音合成
Transformers
德语
3
mlx-community
19
0
Space Voice Label Detect Beta
Apache-2.0
基于Qwen2.5-VL-3B模型的微调版本,使用Unsloth和Huggingface TRL库进行训练,推理速度提升2倍
文本生成图像
Transformers
英语
S
devJy
38
1
Olmo 2 0325 32B Instruct 4bit
Apache-2.0
这是一个基于allenai/OLMo-2-0325-32B-Instruct模型转换的4位量化版本,专为MLX框架优化,适用于文本生成任务。
大型语言模型
Transformers
英语
O
mlx-community
270
10
Traceback 12b
Apache-2.0
TraceBack 12b 是基于 Mistral-Nemo-Instruct 架构的 4bit 量化版本,专注于指令遵循和思维链推理任务。
大型语言模型
Transformers
T
secemp9
1,470
29
Janus Pro 1B 4bit
MIT
基于deepseek-ai/Janus-Pro-1B的4位量化版本,适用于Apple芯片的MLX框架
大型语言模型
J
wnma3mz
40
3
Deepseek R1 Distill Qwen 32B 4bit
这是DeepSeek-R1-Distill-Qwen-32B模型的MLX 4-bit量化版本,适用于苹果芯片设备的高效推理
大型语言模型
Transformers
D
mlx-community
130.79k
40
Llama 3.2 11B Vision Radiology Mini
Apache-2.0
基于Unsloth优化的视觉指令微调模型,支持多模态任务处理
文本生成图像
Transformers
英语
L
mervinpraison
39
2
Sales Conversations Unsloth Llama 3.1 8B Instruct
Apache-2.0
基于Meta-Llama-3.1-8B-Instruct的4位量化版本,使用Unsloth和TRL库进行高效训练
大型语言模型
Transformers
英语
S
vakodiya
22
1
Llama3.1 8b Instruct Summarize Q4 K M
Apache-2.0
基于Meta-Llama-3.1-8B-Instruct的4位量化版本,使用Unsloth和Huggingface TRL库进行训练,速度提升2倍。
大型语言模型
英语
L
raaec
107
0
Smollm 135M 4bit
Apache-2.0
这是一个4位量化的135M参数小型语言模型,适用于资源受限环境下的文本生成任务。
大型语言模型
Transformers
英语
S
mlx-community
312
1
Qwen2 1.5B Summarize
Apache-2.0
基于Qwen2-1.5B-Instruct模型进行2轮微调的摘要生成专用模型
文本生成
Transformers
英语
Q
thepowerfuldeez
228
1
Llama3 Toxic 8B Float16
Apache-2.0
基于unsloth/llama-3-8b-bnb-4bit微调的文本生成模型,使用Unsloth和TRL库训练,速度提升2倍
大型语言模型
Transformers
英语
L
theminji
19
4
Llama 3 70B Uncensored
Apache-2.0
这是一个基于Llama-3-70B模型使用Unsloth和TRL库进行监督微调的文本生成模型,训练速度提升2倍。
大型语言模型
Transformers
英语
L
Dogge
171
18
Universal NER UniNER 7B All Bnb 4bit Smashed
PrunaAI提供的压缩版UniNER-7B-all模型,通过量化技术显著减少内存占用和能耗,同时保持较好的命名实体识别能力。
大型语言模型
Transformers
U
PrunaAI
22
1
Mosaicml Mpt 7b Storywriter Bnb 4bit Smashed
PrunaAI压缩的MPT-7B故事写作模型,通过llm-int8技术实现高效推理
大型语言模型
Transformers
其他
M
PrunaAI
27
1
Tinyllama NSFW Chatbot
Apache-2.0
基于TinyLLaMA的4位量化版本微调的语言模型,使用Unsloth和TRL库进行高效训练
大型语言模型
Transformers
英语
T
bilalRahib
612
7
Llama 2 7b Mt French To English
MIT
基于Meta Llama 2 7B模型微调的LoRA适配器,专门用于法文到英文的文本翻译任务。
机器翻译
支持多种语言
L
kaitchup
268
3