🚀 DrMedra4B 医学模型量化文档
基于 DRMedra4B 模型的医学领域量化模型介绍

📖 [详细文档] • 🚀 [快速开始] • 💻 [使用示例]
📚 详细文档
基本信息
属性 |
详情 |
基础模型 |
drwlf/DrMedra4B |
数据集 |
nicoboss/medra - medical |
语言支持 |
英语、罗马尼亚语 |
库名称 |
transformers |
许可证 |
apache - 2.0 |
量化者 |
mradermacher |
标签 |
医疗人工智能、临床推理、摘要生成、诊断、medgemma、微调 |
关于
(### 量化版本:2 )
(### 输出张量量化:1 )
(### 转换类型:hf )
(### 词汇类型: )
(### 标签:nicoboss )
https://huggingface.co/drwlf/DrMedra4B 的加权/矩阵量化
静态量化文件可在 https://huggingface.co/mradermacher/DrMedra4B - GGUF 获取
使用方法
如果您不确定如何使用 GGUF 文件,请参考 [TheBloke 的 README](https://huggingface.co/TheBloke/KafkaLM - 70B - German - V0.1 - GGUF) 以获取更多详细信息,包括如何拼接多部分文件。
提供的量化文件
(按大小排序,不一定按质量排序。IQ 量化通常比相同大小的非 IQ 量化更优)
链接 |
类型 |
大小 (GB) |
备注 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ1_S.gguf) |
i1 - IQ1_S |
1.2 |
适用于资源紧张情况 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ1_M.gguf) |
i1 - IQ1_M |
1.3 |
多数为资源紧张情况 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ2_XXS.gguf) |
i1 - IQ2_XXS |
1.4 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ2_XS.gguf) |
i1 - IQ2_XS |
1.5 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ2_S.gguf) |
i1 - IQ2_S |
1.5 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ2_M.gguf) |
i1 - IQ2_M |
1.6 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q2_K_S.gguf) |
i1 - Q2_K_S |
1.7 |
质量较低 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ3_XXS.gguf) |
i1 - IQ3_XXS |
1.8 |
质量较低 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q2_K.gguf) |
i1 - Q2_K |
1.8 |
IQ3_XXS 可能更好 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ3_XS.gguf) |
i1 - IQ3_XS |
2.0 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ3_S.gguf) |
i1 - IQ3_S |
2.0 |
优于 Q3_K* |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q3_K_S.gguf) |
i1 - Q3_K_S |
2.0 |
IQ3_XS 可能更好 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ3_M.gguf) |
i1 - IQ3_M |
2.1 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q3_K_M.gguf) |
i1 - Q3_K_M |
2.2 |
IQ3_S 可能更好 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q3_K_L.gguf) |
i1 - Q3_K_L |
2.3 |
IQ3_M 可能更好 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ4_XS.gguf) |
i1 - IQ4_XS |
2.4 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ4_NL.gguf) |
i1 - IQ4_NL |
2.5 |
优先选择 IQ4_XS |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q4_0.gguf) |
i1 - Q4_0 |
2.5 |
速度快,质量低 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q4_K_S.gguf) |
i1 - Q4_K_S |
2.5 |
大小/速度/质量最优 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q4_K_M.gguf) |
i1 - Q4_K_M |
2.6 |
速度快,推荐 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q4_1.gguf) |
i1 - Q4_1 |
2.7 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q5_K_S.gguf) |
i1 - Q5_K_S |
2.9 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q5_K_M.gguf) |
i1 - Q5_K_M |
2.9 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q6_K.gguf) |
i1 - Q6_K |
3.3 |
实际上类似于静态 Q6_K |
以下是 ikawrakow 提供的比较一些低质量量化类型的直观图表(值越低越好):

以下是 Artefact2 对此事的看法:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
常见问题解答 / 模型请求
您可以访问 https://huggingface.co/mradermacher/model_requests 获取一些常见问题的答案,并且如果您需要对其他模型进行量化,也可在此提出需求。
致谢
感谢我的公司 nethype GmbH 让我使用其服务器,并对我的工作站进行升级,使我能够在业余时间完成这项工作。此外,感谢 @nicoboss 让我使用他的私人超级计算机,使我能够提供更多、质量更高的矩阵量化文件。