G

Gemma 3 12b It Qat 4bit

由 mlx-community 开发
基于 google/gemma-3-12b-it-qat-q4_0-unquantized 转换的 MLX 格式模型,支持图文生成任务
下载量 984
发布时间 : 4/15/2025
模型介绍
内容详情
替代品

模型简介

这是一个经过量化的多模态模型,支持图文生成任务,能够在 MLX 框架下高效运行

模型特点

4bit 量化
模型经过 4bit 量化处理,显著减少内存占用
MLX 兼容
专为 MLX 框架优化,可在 Apple Silicon 设备上高效运行
多模态支持
支持图像和文本的联合处理与生成

模型能力

图像描述生成
多语言文本生成
图文联合理解

使用案例

内容生成
图像描述
为上传的图片生成详细描述
生成准确反映图像内容的文本描述
视觉问答
回答关于图像内容的自然语言问题
提供与图像相关的准确答案