Mlabonne Gemma 3 4b It Abliterated GGUF
模型简介
该模型是Gemma-3-4B-IT的量化版本,支持视觉任务,提供多种量化选项以适应不同硬件需求。
模型特点
多种量化选项
提供从BF16到Q2_K的多种量化版本,适应不同硬件和性能需求。
视觉任务支持
包含MMPROJ文件,支持视觉任务处理。
高效推理
使用llama.cpp优化,支持在LM Studio等平台高效运行。
模型能力
图像文本生成
多模态理解
文本生成
使用案例
多模态应用
图像描述生成
根据输入图像生成描述性文本。
视觉问答
回答关于图像内容的问题。
文本生成
对话系统
构建基于多模态输入的对话系统。
🚀 Llama.cpp对mlabonne的gemma - 3 - 4b - it - abliterated的量化版本
本项目是对mlabonne的gemma - 3 - 4b - it - abliterated模型进行量化处理后的成果。通过量化,能够在不同硬件条件下更高效地运行该模型。
基本信息
属性 | 详情 |
---|---|
量化者 | bartowski |
任务类型 | 图像文本到文本 |
许可证 | gemma |
基础模型 | mlabonne/gemma - 3 - 4b - it - abliterated |
🚀 快速开始
本项目使用 llama.cpp 的 b4896 版本进行量化。
- 原始模型地址:https://huggingface.co/mlabonne/gemma - 3 - 4b - it - abliterated
- 所有量化版本均使用 imatrix 选项,并采用 此处 的数据集。
运行方式
✨ 主要特性
提示格式
<bos><start_of_turn>user
{system_prompt}
{prompt}<end_of_turn>
<start_of_turn>model
嵌入/输出权重
部分量化版本(如 Q3_K_XL、Q4_K_L 等)采用标准量化方法,将嵌入和输出权重量化为 Q8_0,而非默认值。
ARM/AVX 信息
- 之前,会下载 Q4_0_4_4/4_8/8_8 版本,这些版本的权重在内存中交错排列,以提高 ARM 和 AVX 机器的性能。
- 现在,有了“在线重新打包”功能,详情见 此 PR。如果使用 Q4_0 且硬件适合重新打包权重,会自动进行。
- 从 llama.cpp 构建版本 b4282 开始,无法运行 Q4_0_X_X 文件,需使用 Q4_0。
- 另外,根据 此 PR,可以使用 IQ4_NL 获得更好的质量,它也会为 ARM 重新打包权重,但目前仅支持 4_4。加载时间可能会变长,但整体速度会提高。
📦 安装指南
使用 huggingface - cli 下载
点击查看下载说明
首先,确保已安装 huggingface - cli:
pip install -U "huggingface_hub[cli]"
然后,可指定要下载的特定文件:
huggingface-cli download bartowski/mlabonne_gemma-3-4b-it-abliterated-GGUF --include "mlabonne_gemma-3-4b-it-abliterated-Q4_K_M.gguf" --local-dir ./
如果模型大于 50GB,会被拆分为多个文件。要将它们全部下载到本地文件夹,运行:
huggingface-cli download bartowski/mlabonne_gemma-3-4b-it-abliterated-GGUF --include "mlabonne_gemma-3-4b-it-abliterated-Q8_0/*" --local-dir ./
可以指定新的本地目录(如 mlabonne_gemma - 3 - 4b - it - abliterated - Q8_0),也可以全部下载到当前目录(./)。
💻 使用示例
下载文件
可从以下表格中选择要下载的文件(非整个分支):
如何选择文件
点击查看详情
Artefact2 提供了一篇很棒的文章,带有展示各种性能的图表,可查看 此处。
首先,要确定能运行多大的模型。这需要了解自己有多少内存(RAM)和/或显存(VRAM)。
- 如果希望模型运行尽可能快,应让整个模型适应 GPU 的显存。选择文件大小比 GPU 总显存小 1 - 2GB 的量化版本。
- 如果追求绝对最高质量,将系统内存和 GPU 显存相加,然后选择文件大小比该总和小 1 - 2GB 的量化版本。
接下来,需要决定使用“I - 量化”还是“K - 量化”。
- 如果不想过多思考,选择 K - 量化版本,格式为“QX_K_X”,如 Q5_K_M。
- 如果想深入了解,可以查看这个非常有用的特性图表:llama.cpp 特性矩阵。
- 一般来说,如果目标是低于 Q4 的量化,并且使用 cuBLAS(Nvidia)或 rocBLAS(AMD),应考虑 I - 量化版本,格式为 IQX_X,如 IQ3_M。这些是较新的版本,相同大小下性能更好。
- I - 量化版本也可在 CPU 上使用,但比对应的 K - 量化版本慢,因此需要在速度和性能之间做出权衡。
- I - 量化版本与 Vulcan(也是 AMD)不兼容,所以如果使用 AMD 显卡,要确认是使用 rocBLAS 版本还是 Vulcan 版本。撰写本文时,LM Studio 有支持 ROCm 的预览版,其他推理引擎也有针对 ROCm 的特定版本。
📄 许可证
本项目使用 gemma 许可证。
致谢
感谢 kalomaze 和 Dampf 在创建 imatrix 校准数据集方面的帮助。 感谢 ZeroWw 在嵌入/输出实验方面的启发。 感谢 LM Studio 对我工作的赞助。
如果想支持我的工作,请访问我的 ko - fi 页面:https://ko - fi.com/bartowski
Clip Vit Large Patch14
CLIP是由OpenAI开发的视觉-语言模型,通过对比学习将图像和文本映射到共享的嵌入空间,支持零样本图像分类
图像生成文本
C
openai
44.7M
1,710
Clip Vit Base Patch32
CLIP是由OpenAI开发的多模态模型,能够理解图像和文本之间的关系,支持零样本图像分类任务。
图像生成文本
C
openai
14.0M
666
Siglip So400m Patch14 384
Apache-2.0
SigLIP是基于WebLi数据集预训练的视觉语言模型,采用改进的sigmoid损失函数,优化了图像-文本匹配任务。
图像生成文本
Transformers

S
google
6.1M
526
Clip Vit Base Patch16
CLIP是由OpenAI开发的多模态模型,通过对比学习将图像和文本映射到共享的嵌入空间,实现零样本图像分类能力。
图像生成文本
C
openai
4.6M
119
Blip Image Captioning Base
Bsd-3-clause
BLIP是一个先进的视觉-语言预训练模型,擅长图像描述生成任务,支持条件式和非条件式文本生成。
图像生成文本
Transformers

B
Salesforce
2.8M
688
Blip Image Captioning Large
Bsd-3-clause
BLIP是一个统一的视觉-语言预训练框架,擅长图像描述生成任务,支持条件式和无条件式图像描述生成。
图像生成文本
Transformers

B
Salesforce
2.5M
1,312
Openvla 7b
MIT
OpenVLA 7B是一个基于Open X-Embodiment数据集训练的开源视觉-语言-动作模型,能够根据语言指令和摄像头图像生成机器人动作。
图像生成文本
Transformers 英语

O
openvla
1.7M
108
Llava V1.5 7b
LLaVA 是一款开源多模态聊天机器人,基于 LLaMA/Vicuna 微调,支持图文交互。
图像生成文本
Transformers

L
liuhaotian
1.4M
448
Vit Gpt2 Image Captioning
Apache-2.0
这是一个基于ViT和GPT2架构的图像描述生成模型,能够为输入图像生成自然语言描述。
图像生成文本
Transformers

V
nlpconnect
939.88k
887
Blip2 Opt 2.7b
MIT
BLIP-2是一个视觉语言模型,结合了图像编码器和大型语言模型,用于图像到文本的生成任务。
图像生成文本
Transformers 英语

B
Salesforce
867.78k
359
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98
智启未来,您的人工智能解决方案智库
简体中文