PKU DS LAB.FairyR1 32B GGUF
FairyR1-32B 是一个32B参数规模的大型语言模型,由PKU-DS-LAB开发,专注于文本生成任务。
大型语言模型
P
DevQuasar
134
1
GLM 4 32B 0414 4bit DWQ
MIT
这是THUDM/GLM-4-32B-0414模型的MLX格式版本,经过4位DWQ量化处理,适用于苹果芯片设备的高效推理。
大型语言模型
支持多种语言
G
mlx-community
156
4
Qwen3 32B 4bit DWQ
Apache-2.0
Qwen3-32B-8bit是基于Qwen3-32B模型量化的8位版本,适用于文本生成任务,由mlx-community发布。
大型语言模型
Q
mlx-community
211
1
Qwen3 235B A22B 4bit DWQ
Apache-2.0
Qwen3-235B-A22B-4bit-DWQ是基于Qwen3-235B-A22B-8bit模型转换而来的4位量化版本,适用于文本生成任务。
大型语言模型
Q
mlx-community
70
1
Avern 1.5 Mintra
MIT
Qwen2.5-Coder-7B-Instruct 是一个基于 Qwen2.5 架构的 7B 参数规模的代码生成模型,专注于指令微调,适用于代码生成和编程辅助任务。
大型语言模型
PyTorch
A
averntech
87
1
Qwen3 235B A22B Mixed 3 6bit
Apache-2.0
这是一个基于Qwen/Qwen3-235B-A22B模型转换而来的混合3-6位量化版本,适用于苹果MLX框架的高效推理。
大型语言模型
Q
mlx-community
100
2
Qwen Qwen2.5 VL 72B Instruct GGUF
其他
Qwen2.5-VL-72B-Instruct的多模态大语言模型量化版本,支持图像文本到文本任务,适用于多种量化级别,从高精度到低内存需求。
文本生成图像
英语
Q
bartowski
1,336
1
Qwen3 30B A3B 4bit DWQ 05082025
Apache-2.0
这是一个基于Qwen/Qwen3-30B-A3B转换至MLX格式的4位量化模型,适用于文本生成任务。
大型语言模型
Q
mlx-community
240
5
Qwen3 30B A3B 4bit DWQ 0508
Apache-2.0
Qwen3-30B-A3B-4bit-DWQ-0508是基于Qwen/Qwen3-30B-A3B转换至MLX格式的4位量化模型,适用于文本生成任务。
大型语言模型
Q
mlx-community
410
12
Nvidia.opencodereasoning Nemotron 14B GGUF
由NVIDIA开发的开源代码推理大语言模型,参数规模为140亿,专注于代码生成和推理任务。
大型语言模型
N
DevQuasar
423
2
Qwen3 30B A3B MNN
Apache-2.0
基于Qwen3-30B-A3B导出的MNN模型,经过4位量化后的版本,适用于高效推理。
大型语言模型
英语
Q
taobao-mnn
550
1
Qwen3 14B 4bit AWQ
Apache-2.0
Qwen3-14B-4bit-AWQ是基于Qwen/Qwen3-14B转换而来的MLX格式模型,使用AWQ量化技术将模型压缩至4bit,适用于MLX框架的高效推理。
大型语言模型
Q
mlx-community
252
2
Qwen3 8b Ru
Apache-2.0
基于Qwen3-8B的俄语优化大语言模型,专为俄语文本生成任务设计
大型语言模型
Transformers

其他
Q
attn-signs
30
2
Qwen3 30B A3B 4bit DWQ
Apache-2.0
这是一个基于Qwen3-30B-A3B模型的4位量化版本,通过从6位量化蒸馏至4位定制的DWQ量化技术制作,适用于文本生成任务。
大型语言模型
Q
mlx-community
561
19
Qwen3 30B A3B Gptq 8bit
Apache-2.0
Qwen3 30B A3B是一个采用GPTQ方法进行8位量化处理的大语言模型,适用于高效推理场景。
大型语言模型
Transformers

Q
btbtyler09
301
2
Qwen3 30B A3B GGUF
Qwen3-30B-A3B的GGUF量化版本,支持多种比特量化,适用于文本生成任务。
大型语言模型
Q
MaziyarPanahi
158.92k
3
Qwen3 235B A22B 4bit
Apache-2.0
该模型是基于Qwen/Qwen3-235B-A22B转换至MLX格式的4位量化版本,适用于文本生成任务。
大型语言模型
Q
mlx-community
974
6
Qwen3 30B A3B MLX 8bit
Apache-2.0
该模型是基于Qwen/Qwen3-30B-A3B转换而来的MLX格式模型,支持8位量化,适用于文本生成任务。
大型语言模型
Q
lmstudio-community
7,759
6
Qwen3 30B A3B MLX 4bit
Apache-2.0
Qwen3-30B-A3B-MLX-8bit 是基于 Qwen/Qwen3-30B-A3B 转换的 8 位量化版本,专为 MLX 框架优化,适用于文本生成任务。
大型语言模型
Q
lmstudio-community
4,199
19
Qwen3 30B A3B 4bit
Apache-2.0
Qwen3-30B-A3B-4bit是基于Qwen/Qwen3-30B-A3B转换的4位量化版本,适用于在MLX框架下进行高效的文本生成任务。
大型语言模型
Q
mlx-community
2,394
7
Qwen3 14B MLX 4bit
Apache-2.0
Qwen3-14B-4bit是基于Qwen/Qwen3-14B模型使用mlx-lm转换的4位量化版本,适用于文本生成任务。
大型语言模型
Q
lmstudio-community
3,178
4
Huihui Ai.glm 4 32B 0414 Abliterated GGUF
GLM-4-32B-0414-abliterated 是一个基于 GLM 架构的大规模语言模型,参数规模为 32B,适用于文本生成任务。
大型语言模型
H
DevQuasar
623
2
GLM Z1 32B 0414 4bit
MIT
该模型是基于THUDM/GLM-Z1-32B-0414转换的4位量化版本,适用于文本生成任务。
大型语言模型
支持多种语言
G
mlx-community
225
2
Qwq DeepSeek R1 SkyT1 Flash Lightest 32B
这是一个基于Qwen2.5-32B的合并模型,融合了DeepSeek-R1-Distill-Qwen-32B、QwQ-32B和Sky-T1-32B-Flash的特点,旨在提升性能。
大型语言模型
Transformers

Q
sm54
14
4
GLM 4 32B 0414 8bit
MIT
该模型是从THUDM/GLM-4-32B-0414转换而来的8位量化MLX格式大语言模型,支持中英文文本生成任务。
大型语言模型
支持多种语言
G
mlx-community
222
4
GLM 4 32B 0414 EXL3
Apache-2.0
GLM-4-32B-0414是THUDM团队开发的大规模语言模型,基于GLM架构,适用于多种文本生成任务。
大型语言模型
G
owentruong
36
2
Qwen2.5 VL 72B Instruct FP8 Dynamic
Apache-2.0
Qwen2.5-VL-72B-Instruct的FP8量化版本,支持视觉-文本输入和文本输出,由Neural Magic优化发布。
图像生成文本
Transformers

英语
Q
parasail-ai
78
1
Deepseek R1 Quantized.w4a16
MIT
DeepSeek-R1的INT4权重量化版本,通过减少权重位数降低GPU内存和磁盘空间需求约50%,保持原始模型性能。
大型语言模型
Safetensors
D
RedHatAI
119
4
VL Rethinker 72B 8bit
Apache-2.0
该模型是基于Qwen2.5-VL-7B-Instruct转换而来的多模态视觉语言模型,支持8位量化,适用于视觉问答任务。
文本生成图像
Transformers

英语
V
mlx-community
18
0
Gemma 3 27b It Qat Bf16
Gemma 3 27B IT QAT BF16 是由 Google 发布的 Gemma 系列模型的一个版本,经过量化感知训练(QAT)并转换为 BF16 格式,适用于 MLX 框架。
图像生成文本
Transformers

G
mlx-community
178
2
Gemma 3 27b It Qat 8bit
其他
Gemma 3 27B IT QAT 8bit 是一个基于 Google 的 Gemma 3 27B 模型转换而来的 MLX 格式模型,支持图文到文本的任务。
图像生成文本
Transformers

其他
G
mlx-community
422
2
Gemma 3 27b It Qat 4bit
其他
Gemma 3 27B IT QAT 4bit 是一个基于 Google 原始模型转换而来的 MLX 格式模型,支持图像文本到文本的任务。
图像生成文本
Transformers

其他
G
mlx-community
2,200
12
Bitnet B1.58 2B 4T Gguf
MIT
微软研究院开发的首个开源、原生1比特的大语言模型,参数规模达20亿,在4万亿token的语料库上训练而成。
大型语言模型
英语
B
microsoft
25.77k
143
Bitnet B1.58 2B 4T Bf16
MIT
由微软研究院开发的开源原生1位大语言模型,参数规模达20亿,在4万亿token的语料库上训练而成,显著提升计算效率。
大型语言模型
Transformers

英语
B
microsoft
2,968
24
THUDM.GLM 4 32B 0414 GGUF
GLM-4-32B-0414是由THUDM开发的大规模语言模型,具有320亿参数,适用于多种文本生成任务。
大型语言模型
T
DevQuasar
13.15k
5
Plamo Embedding 1b
Apache-2.0
PLaMo-Embedding-1B是由Preferred Networks公司开发的日语文本嵌入模型,在日语文本嵌入基准测试中表现优异
文本嵌入
Transformers

日语
P
pfnet
33.48k
25
Vora 7B Instruct
VoRA是一个基于7B参数的视觉-语言模型,专注于图像文本到文本的转换任务。
图像生成文本
Transformers

V
Hon-Wong
154
12
Vora 7B Base
VoRA是一个基于7B参数的视觉语言模型,能够处理图像和文本输入,生成文本输出。
图像生成文本
Transformers

V
Hon-Wong
62
4
All Hands.openhands Lm 32b V0.1 GGUF
OpenHands LM 32B v0.1 是一个32B参数规模的开源大语言模型,致力于知识的自由传播。
大型语言模型
A
DevQuasar
5,771
2
Deepseek Ai.deepseek V3 0324 GGUF
DeepSeek-V3-0324 是一个强大的基础模型,专注于文本生成任务,旨在提供高质量的文本生成能力。
大型语言模型
D
DevQuasar
2,850
2
- 1
- 2
- 3
- 4
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文