base_model: ehartford/dolphin-2.5-mixtral-8x7b
datasets:
-
ehartford/dolphin
-
jondurbin/airoboros-2.2.1
-
ehartford/dolphin-coder
-
migtissera/Synthia-v1.3
-
teknium/openhermes
-
ise-uiuc/Magicoder-OSS-Instruct-75K
-
ise-uiuc/Magicoder-Evol-Instruct-110K
-
LDJnr/Pure-Dove
inference: false
language:
-
en
license: apache-2.0
model_creator: Eric Hartford
model_name: Dolphin 2.5 Mixtral 8X7B
model_type: mixtral
prompt_template: '<|im_start|>system
{system_message}<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant
'
quantized_by: TheBloke
Dolphin 2.5 Mixtral 8X7B - GPTQ
模型描述
本仓库包含Eric Hartford的Dolphin 2.5 Mixtral 8X7B的GPTQ模型文件。
当前Mixtral GPTQ需要:
- Transformers 4.36.0或更高版本
- 从源码编译的AutoGPTQ 0.6,或
- 从Github安装的Transformers 4.37.0.dev0:
pip3 install git+https://github.com/huggingface/transformers
提供了多种GPTQ参数组合;详情请参阅下方“提供的文件”部分,了解提供的选项、参数及创建它们所使用的软件。
可用仓库
提示模板:ChatML
<|im_start|>system
{system_message}<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant
已知兼容的客户端/服务器
GPTQ模型目前支持Linux(NVIDIA/AMD)和Windows(仅限NVIDIA)。macOS用户请使用GGUF模型。
当前Mixtral GPTQ有特殊要求——请参阅上方的描述。
提供的文件及GPTQ参数
提供了多种量化参数,以便您根据硬件和需求选择最适合的选项。
每个独立的量化版本位于不同的分支。请参阅下方从不同分支获取的说明。
大多数GPTQ文件使用AutoGPTQ制作。Mistral模型当前使用Transformers制作。
GPTQ参数说明
- Bits:量化模型的位数。
- GS:GPTQ组大小。数值越高,VRAM使用越少,但量化精度越低。“None”是最小可能值。
- Act Order:True或False。也称为
desc_act
。True会提高量化精度。某些GPTQ客户端在使用Act Order加Group Size时曾遇到问题,但通常现已解决。
- Damp %:影响量化样本处理的GPTQ参数。默认0.01,但0.1会略微提高精度。
- GPTQ数据集:量化期间使用的校准数据集。使用更符合模型训练的数据集可提高量化精度。注意,GPTQ校准数据集与训练模型所用的数据集不同——详情请参阅原始模型仓库的训练数据集信息。
- 序列长度:用于量化的数据集序列长度。理想情况下应与模型序列长度相同。对于某些超长序列模型(16+K),可能需要使用较短的序列长度。注意,较短的序列长度不会限制量化模型的序列长度,仅影响较长推理序列的量化精度。
- ExLlama兼容性:此文件是否可用ExLlama加载,当前仅支持4位的Llama和Mistral模型。
如何下载,包括从分支下载
在text-generation-webui中
要从main
分支下载,在“下载模型”框中输入TheBloke/dolphin-2.5-mixtral-8x7b-GPTQ
。
要从其他分支下载,在下载名称后添加:branchname
,例如TheBloke/dolphin-2.5-mixtral-8x7b-GPTQ:gptq-4bit-128g-actorder_True
从命令行
建议使用huggingface-hub
Python库:
pip3 install huggingface-hub
要将main
分支下载到名为dolphin-2.5-mixtral-8x7b-GPTQ
的文件夹:
mkdir dolphin-2.5-mixtral-8x7b-GPTQ
huggingface-cli download TheBloke/dolphin-2.5-mixtral-8x7b-GPTQ --local-dir dolphin-2.5-mixtral-8x7b-GPTQ --local-dir-use-symlinks False
要从不同分支下载,添加--revision
参数:
mkdir dolphin-2.5-mixtral-8x7b-GPTQ
huggingface-cli download TheBloke/dolphin-2.5-mixtral-8x7b-GPTQ --revision gptq-4bit-128g-actorder_True --local-dir dolphin-2.5-mixtral-8x7b-GPTQ --local-dir-use-symlinks False