language:
Storytime 13B - GPTQ
描述
此仓库包含Charles Goddard的Storytime 13B的GPTQ模型文件。
提供了多种GPTQ参数组合;详情请参阅下面的“提供文件”部分,了解提供的选项、参数及创建它们所使用的软件。
可用仓库
提示模板:Alpaca
以下是一个描述任务的指令。请撰写一个恰当完成该请求的回应。
### 指令:
{prompt}
### 回应:
提供的文件及GPTQ参数
提供了多种量化参数,以便您根据硬件和需求选择最适合的。
每个独立的量化文件位于不同的分支。有关从不同分支获取的说明,请参见下文。
所有最近的GPTQ文件均使用AutoGPTQ制作,非主分支中的所有文件也使用AutoGPTQ制作。主分支中2023年8月之前上传的文件使用GPTQ-for-LLaMa制作。
GPTQ参数说明
- 位数:量化模型的位数大小。
- GS:GPTQ组大小。数值越高,使用的VRAM越少,但量化精度越低。"None"是最低可能值。
- 激活顺序:True或False。也称为
desc_act
。True能提高量化精度。一些GPTQ客户端在使用激活顺序加组大小时曾遇到问题,但现已普遍解决。
- 阻尼百分比:影响量化样本处理的GPTQ参数。默认为0.01,但0.1能略微提高精度。
- GPTQ数据集:量化期间使用的校准数据集。使用更符合模型训练的数据集可以提高量化精度。注意,GPTQ校准数据集与训练模型所用的数据集不同——详情请参阅原始模型仓库的训练数据集信息。
- 序列长度:用于量化的数据集序列长度。理想情况下应与模型序列长度相同。对于某些超长序列模型(16+K),可能需要使用较低的序列长度。注意,较低的序列长度不会限制量化模型的序列长度,仅影响较长推理序列的量化精度。
- ExLlama兼容性:此文件是否可以用ExLlama加载,目前仅支持4位的Llama模型。
如何下载,包括从分支下载
在text-generation-webui中
要从main
分支下载,在“下载模型”框中输入TheBloke/storytime-13B-GPTQ
。
要从其他分支下载,在下载名称后添加:branchname
,例如TheBloke/storytime-13B-GPTQ:gptq-4-32g-actorder_True
从命令行
推荐使用huggingface-hub
Python库:
pip3 install huggingface-hub
要将main
分支下载到名为storytime-13B-GPTQ
的文件夹:
mkdir storytime-13B-GPTQ
huggingface-cli download TheBloke/storytime-13B-GPTQ --local-dir storytime-13B-GPTQ --local-dir-use-symlinks False
要从不同分支下载,添加--revision
参数:
mkdir storytime-13B-GPTQ
huggingface-cli download TheBloke/storytime-13B-GPTQ --revision gptq-4-32g-actorder_True --local-dir storytime-13B-GPTQ --local-dir-use-symlinks False
更多高级huggingface-cli下载用法
如果移除--local-dir-use-symlinks False
参数,文件将存储在中央Huggingface缓存目录中(Linux上默认位置为:~/.cache/huggingface
),并在指定的--local-dir
中添加符号链接,指向缓存中的实际位置。这允许中断的下载恢复,并可以快速将仓库克隆到磁盘上的多个位置而不触发重复下载。缺点是文件隐藏在缓存文件夹中,难以了解磁盘空间使用情况,且在想要移除下载模型时清理较困难。
可以通过HF_HOME
环境变量和/或huggingface-cli
的--cache-dir
参数更改缓存位置。
有关使用huggingface-cli
下载的更多文档,请参阅:HF -> Hub Python库 -> 下载文件 -> 从CLI下载。
要在快速连接(1Gbit/s或更高)上加速下载,安装hf_transfer
:
pip3 install hf_transfer
并设置环境变量HF_HUB_ENABLE_HF_TRANSFER
为1
:
mkdir storytime-13B-GPTQ
HF_HUB_ENABLE_HF_TRANSFER=1 huggingface-cli download TheBloke/storytime-13B-GPTQ --local-dir storytime-13B-GPTQ --local-dir-use-symlinks False
Windows命令行用户:可以在下载命令前运行set HF_HUB_ENABLE_HF_TRANSFER=1
设置环境变量。
使用git
(不推荐)
要使用git
克隆特定分支,使用如下命令:
git clone --single-branch --branch gptq-4-32g-actorder_True https://huggingface.co/TheBloke/storytime-13B-GPTQ
注意,强烈不建议使用Git与HF仓库。它会比使用huggingface-hub
慢得多,且会占用两倍磁盘空间(它会在目标文件夹和.git
文件夹中重复存储每个字节)。
请确保您使用的是最新版本的text-generation-webui。
强烈建议使用text-generation-webui的一键安装程序,除非您确定知道如何进行手动安装。
- 点击模型标签。
- 在下载自定义模型或LoRA下,输入
TheBloke/storytime-13B-GPTQ
。
- 要从特定分支下载,例如输入
TheBloke/storytime-13B-GPTQ:gptq-4-32g-actorder_True
- 有关每个选项的分支列表,请参阅上面的“提供文件”部分。
3