Q

Qwq 32B GGUF

由 MaziyarPanahi 开发
QwQ-32B的GGUF格式量化版本,适用于本地文本生成任务。
下载量 459.38k
发布时间 : 3/6/2025
模型介绍
内容详情
替代品

模型简介

该模型是Qwen/QwQ-32B的GGUF格式量化版本,支持多种量化级别(2位至8位),适用于本地部署的文本生成任务。

模型特点

GGUF格式支持
采用最新的GGUF格式,替代不再受支持的GGML格式,兼容多种客户端和库。
多级量化
提供从2位到8位的多种量化级别,满足不同硬件条件下的部署需求。
广泛兼容性
支持多种客户端和库,包括llama.cpp、LM Studio、text-generation-webui等。

模型能力

文本生成
本地推理

使用案例

文本生成
创意写作
用于生成故事、诗歌等创意文本内容。
对话系统
可用于构建本地部署的聊天机器人。