Q

Qwen3 8B 4bit

由 mlx-community 开发
这是Qwen/Qwen3-8B模型的4位量化版本,已转换为MLX框架格式,适用于苹果芯片设备的高效推理。
下载量 2,131
发布时间 : 4/28/2025
模型介绍
内容详情
替代品

模型简介

基于Qwen3-8B的4位量化版本,专为MLX框架优化,支持高效的文本生成任务。

模型特点

4位量化
模型经过4位量化处理,显著减少内存占用和计算资源需求
MLX框架优化
专为MLX框架转换,优化在苹果芯片设备上的运行效率
高效推理
量化后的模型在保持较好生成质量的同时提高推理速度

模型能力

文本生成
对话系统
内容创作

使用案例

对话系统
智能聊天助手
构建基于本地设备的对话AI应用
内容生成
创意写作
辅助进行故事创作、诗歌生成等创意写作任务