语言:
- 英文
许可证: llama2
标签:
- 文本生成
- 指令
数据集:
- PygmalionAI/PIPPA
- Open-Orca/OpenOrca
- Norquinal/claude_multiround_chat_30k
- jondurbin/airoboros-gpt4-1.4.1
- databricks/databricks-dolly-15k
模型名称: Pygmalion 2 13B
基础模型: PygmalionAI/pygmalion-2-13b
推理: false
模型创建者: PygmalionAI
模型类型: llama
管道标签: text-generation
提示模板: '模型已通过使用三种不同角色的提示进行训练,这些角色由以下标记表示:
<|system|>
、<|user|>
和 <|model|>
。
<|system|>
提示可用于在幕后注入通道外的信息,而 <|user|>
提示应表示用户输入。
<|model|>
标记应表示模型应生成响应。这些标记可以多次出现并链接起来形成对话历史。
系统提示设计允许模型“进入”各种模式并指定回复长度。以下是一个示例:
<|system|>进入角色扮演模式。假装是 {{char}},其角色设定如下:
{{persona}}
你应以角色身份回复用户,并生成长回复。
'
量化者: TheBloke
Pygmalion 2 13B - GGUF
描述
此仓库包含PygmalionAI的Pygmalion 2 13B的GGUF格式模型文件。
关于GGUF
GGUF是由llama.cpp团队于2023年8月21日引入的新格式。它取代了GGML,后者不再受llama.cpp支持。GGUF相比GGML提供了许多优势,如更好的标记化和对特殊标记的支持。它还支持元数据,并设计为可扩展。
以下是已知支持GGUF的客户端和库的不完整列表:
可用仓库
提示模板: 自定义
模型已通过使用三种不同角色的提示进行训练,这些角色由以下标记表示:<|system|>
、<|user|>
和 <|model|>
。
<|system|>
提示可用于在幕后注入通道外的信息,而 <|user|>
提示应表示用户输入。
<|model|>
标记应表示模型应生成响应。这些标记可以多次出现并链接起来形成对话历史。
系统提示设计允许模型“进入”各种模式并指定回复长度。以下是一个示例:
<|system|>进入角色扮演模式。假装是 {{char}},其角色设定如下:
{{persona}}
你应以角色身份回复用户,并生成长回复。
兼容性
这些量化的GGUFv2文件与自8月27日起的llama.cpp兼容,提交号为d0cee0d36d5be95a0d9088b674dbb27354107221
它们也与许多第三方UI和库兼容 - 请参阅本README顶部的列表。
量化方法说明
点击查看详情
可用的新方法包括:
- GGML_TYPE_Q2_K - "type-1" 2位量化,超级块包含16个块,每个块有16个权重。块比例和最小值用4位量化。这最终有效地使用每个权重2.5625位(bpw)
- GGML_TYPE_Q3_K - "type-0" 3位量化,超级块包含16个块,每个块有16个权重。比例用6位量化。这最终使用每个权重3.4375位。
- GGML_TYPE_Q4_K - "type-1" 4位量化,超级块包含8个块,每个块有32个权重。比例和最小值用6位量化。这最终使用每个权重4.5位。
- GGML_TYPE_Q5_K - "type-1" 5位量化。与GGML_TYPE_Q4_K相同的超级块结构,结果每个权重5.5位
- GGML_TYPE_Q6_K - "type-0" 6位量化。超级块包含16个块,每个块有16个权重。比例用8位量化。这最终使用每个权重6.5625位。
请参阅下面的“提供的文件”表以查看哪些文件使用哪些方法,以及如何使用。
提供的文件