G

GLM Z1 9B 0414 GGUF

由 Mungert 开发
GLM-Z1-9B-0414 是一个支持中英双语的文本生成模型,采用 GGUF 格式,适用于多种量化级别,从 BF16 到超低位量化(1-2 比特)。
下载量 1,598
发布时间 : 4/26/2025
模型介绍
内容详情
替代品

模型简介

该模型基于 GLM 架构,支持中英双语文本生成任务,适用于多种硬件环境,包括 CPU 和 GPU。

模型特点

IQ-DynamicGate 超低位量化
支持 1-2 比特超低位量化,通过动态精度分配和关键组件保护,在保持内存效率的同时提高准确性。
多量化级别支持
提供从 BF16、F16 到 Q4_K、Q6_K、Q8_0 等多种量化级别,适应不同硬件需求。
中英双语支持
模型支持中文和英文的文本生成任务。

模型能力

文本生成
中英双语处理
低内存推理

使用案例

内存受限的部署
边缘设备推理
在内存有限的边缘设备上运行文本生成任务。
通过超低位量化(如 IQ3_XS)实现极致内存效率。
研究
超低位量化研究
研究 1-2 比特量化对模型性能的影响。
提供多种量化级别的基准测试数据。