Openchat 3.6 8b 20240522 IMat GGUF
模型简介
该模型是基于 openchat-3.6-8b 的量化版本,适用于文本生成任务,支持多种量化选项以优化性能和资源使用。
模型特点
多种量化选项
提供了从 Q8_0 到 IQ1_S 等多种量化类型,满足不同硬件和性能需求。
IMatrix 优化
部分量化类型使用了 IMatrix 数据集进行优化,提升了低量化类型的性能。
轻量级部署
量化后的模型体积更小,适合在资源有限的设备上运行。
模型能力
文本生成
对话系统
数学问题求解
使用案例
日常对话
健康饮食建议
提供香蕉和火龙果的组合食用方法。
生成具体的食谱建议,如香蕉火龙果奶昔和沙拉。
教育辅助
数学问题求解
解答简单的线性方程。
正确解答如 2x + 3 = 7 的方程。
🚀 openchat-3.6-8b-20240522-IMat-GGUF
本项目是对 openchat/openchat-3.6-8b-20240522
模型进行 Llama.cpp imatrix
量化处理后的版本。提供了不同量化类型的文件,方便用户根据自身需求进行下载和使用。
属性 | 详情 |
---|---|
基础模型 | openchat/openchat-3.6-8b-20240522 |
推理 | 否 |
库名称 | gguf |
许可证 | llama3 |
任务类型 | 文本生成 |
量化者 | legraphista |
标签 | 量化、GGUF、imatrix、量化处理、imat、imatrix、静态 |
原始模型:openchat/openchat-3.6-8b-20240522
原始数据类型:BF16
(bfloat16
)
量化工具:llama.cpp b3006
IMatrix 数据集:点击查看
📦 文件信息
IMatrix
状态:✅ 可用
链接:点击下载
常用量化文件
文件名 | 量化类型 | 文件大小 | 状态 | 是否使用 IMatrix | 是否拆分 |
---|---|---|---|---|---|
openchat-3.6-8b-20240522.Q8_0.gguf | Q8_0 | 8.54GB | ✅ 可用 | ❌ 静态 | ❌ 否 |
openchat-3.6-8b-20240522.Q6_K.gguf | Q6_K | 6.60GB | ✅ 可用 | ❌ 静态 | ❌ 否 |
openchat-3.6-8b-20240522.Q4_K.gguf | Q4_K | 4.92GB | ✅ 可用 | ✅ IMatrix | ❌ 否 |
openchat-3.6-8b-20240522.Q3_K.gguf | Q3_K | 4.02GB | ✅ 可用 | ✅ IMatrix | ❌ 否 |
openchat-3.6-8b-20240522.Q2_K.gguf | Q2_K | 3.18GB | ✅ 可用 | ✅ IMatrix | ❌ 否 |
所有量化文件
🚀 快速开始
使用 huggingface-cli 下载
如果你还没有安装 huggingface-cli
,可以使用以下命令进行安装:
pip install -U "huggingface_hub[cli]"
下载你需要的特定文件:
huggingface-cli download legraphista/openchat-3.6-8b-20240522-IMat-GGUF --include "openchat-3.6-8b-20240522.Q8_0.gguf" --local-dir ./
如果模型文件较大,可能已被拆分为多个文件。要将它们全部下载到本地文件夹,请运行以下命令:
huggingface-cli download legraphista/openchat-3.6-8b-20240522-IMat-GGUF --include "openchat-3.6-8b-20240522.Q8_0/*" --local-dir openchat-3.6-8b-20240522.Q8_0
# 合并 GGUF 文件的方法请参考 FAQ
💻 使用示例
简单聊天模板
<|begin_of_text|><|start_header_id|>GPT4 Correct User<|end_header_id|>
Can you provide ways to eat combinations of bananas and dragonfruits?<|eot_id|><|start_header_id|>GPT4 Correct Assistant<|end_header_id|>
Sure! Here are some ways to eat bananas and dragonfruits together:
1. Banana and dragonfruit smoothie: Blend bananas and dragonfruits together with some milk and honey.
2. Banana and dragonfruit salad: Mix sliced bananas and dragonfruits together with some lemon juice and honey.<|eot_id|><|start_header_id|>GPT4 Correct User<|end_header_id|>
What about solving an 2x + 3 = 7 equation?<|eot_id|>
带系统提示的聊天模板
<|begin_of_text|><|start_header_id|>System<|end_header_id|>
You are a helpful AI.<|eot_id|><|start_header_id|>GPT4 Correct User<|end_header_id|>
Can you provide ways to eat combinations of bananas and dragonfruits?<|eot_id|><|start_header_id|>GPT4 Correct Assistant<|end_header_id|>
Sure! Here are some ways to eat bananas and dragonfruits together:
1. Banana and dragonfruit smoothie: Blend bananas and dragonfruits together with some milk and honey.
2. Banana and dragonfruit salad: Mix sliced bananas and dragonfruits together with some lemon juice and honey.<|eot_id|><|start_header_id|>GPT4 Correct User<|end_header_id|>
What about solving an 2x + 3 = 7 equation?<|eot_id|>
使用 Llama.cpp 进行推理
llama.cpp/main -m openchat-3.6-8b-20240522.Q8_0.gguf --color -i -p "prompt here (according to the chat template)"
❓ 常见问题解答
为什么 IMatrix 没有应用到所有地方?
根据 这项调查,似乎只有较低的量化类型能从 imatrix
输入中受益(根据 hellaswag
结果)。
如何合并拆分的 GGUF 文件?
- 确保你已经有
gguf-split
工具:- 要获取
gguf-split
,请访问 https://github.com/ggerganov/llama.cpp/releases。 - 从最新版本中下载适合你系统的压缩包。
- 解压压缩包后,你应该能找到
gguf-split
工具。
- 要获取
- 找到你的 GGUF 拆分文件所在的文件夹(例如:
openchat-3.6-8b-20240522.Q8_0
)。 - 运行以下命令进行合并:
gguf-split --merge openchat-3.6-8b-20240522.Q8_0/openchat-3.6-8b-20240522.Q8_0-00001-of-XXXXX.gguf openchat-3.6-8b-20240522.Q8_0.gguf
请确保将 gguf-split
指向拆分文件中的第一个文件。
如果你有任何建议,欢迎在 @legraphista 联系我!
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型 支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型 英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型 英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型 英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型 支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型 英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型 英语
O
facebook
6.3M
198
1
基于transformers库的预训练模型,适用于多种NLP任务
大型语言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型
Transformers 支持多种语言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型 支持多种语言
T
google-t5
5.4M
702
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98
智启未来,您的人工智能解决方案智库
简体中文