language:
- en
license: llama2
tags:
- 文本生成
- 指令
datasets:
- PygmalionAI/PIPPA
- Open-Orca/OpenOrca
- Norquinal/claude_multiround_chat_30k
- jondurbin/airoboros-gpt4-1.4.1
- databricks/databricks-dolly-15k
model_name: Pygmalion 2 7B
base_model: PygmalionAI/pygmalion-2-7b
inference: false
model_creator: PygmalionAI
model_type: llama
pipeline_tag: text-generation
prompt_template: '该模型已通过使用三种不同角色的提示进行训练,分别由以下标记表示:
<|system|>
、<|user|>
和 <|model|>
。
<|system|>
提示可用于在幕后注入通道外的信息,而 <|user|>
提示应用于指示用户输入。
然后应使用 <|model|>
标记指示模型生成响应。这些标记可以多次出现并链接起来形成对话历史。
系统提示设计允许模型“进入”各种模式并指定回复长度。以下是一个示例:
<|system|>进入角色扮演模式。假装是 {{char}},其角色设定如下:
{{persona}}
你应以角色身份回复用户,并生成长响应。
'
quantized_by: TheBloke
Pygmalion 2 7B - GGUF
描述
此仓库包含PygmalionAI的Pygmalion 2 7B的GGUF格式模型文件。
关于GGUF
GGUF是由llama.cpp团队于2023年8月21日引入的新格式。它是GGML的替代品,llama.cpp不再支持GGML。GGUF相比GGML具有许多优势,例如更好的分词和对特殊标记的支持。它还支持元数据,并设计为可扩展的。
以下是已知支持GGUF的客户端和库的不完整列表:
可用仓库
提示模板:自定义
该模型已通过使用三种不同角色的提示进行训练,分别由以下标记表示:<|system|>
、<|user|>
和 <|model|>
。
<|system|>
提示可用于在幕后注入通道外的信息,而 <|user|>
提示应用于指示用户输入。
然后应使用 <|model|>
标记指示模型生成响应。这些标记可以多次出现并链接起来形成对话历史。
系统提示设计允许模型“进入”各种模式并指定回复长度。以下是一个示例:
<|system|>进入角色扮演模式。假装是 {{char}},其角色设定如下:
{{persona}}
你应以角色身份回复用户,并生成长响应。
兼容性
这些量化的GGUFv2文件与2023年8月27日之后的llama.cpp兼容,提交号为d0cee0d36d5be95a0d9088b674dbb27354107221
它们也与许多第三方UI和库兼容 - 请参阅本README顶部的列表。
量化方法说明
点击查看详情
可用的新方法包括:
- GGML_TYPE_Q2_K - “type-1” 2位量化,在包含16个块的超级块中,每个块有16个权重。块比例和最小值用4位量化。这最终有效地使用每个权重2.5625位(bpw)
- GGML_TYPE_Q3_K - “type-0” 3位量化,在包含16个块的超级块中,每个块有16个权重。比例用6位量化。这最终使用每个权重3.4375位(bpw)。
- GGML_TYPE_Q4_K - “type-1” 4位量化,在包含8个块的超级块中,每个块有32个权重。比例和最小值用6位量化。这最终使用每个权重4.5位(bpw)。
- GGML_TYPE_Q5_K - “type-1” 5位量化。与GGML_TYPE_Q4_K相同的超级块结构,结果为每个权重5.5位(bpw)
- GGML_TYPE_Q6_K - “type-0” 6位量化。包含16个块的超级块,每个块有16个权重。比例用8位量化。这最终使用每个权重6.5625位(bpw)。
请参阅下面的“提供的文件”表以查看哪些文件使用哪些方法,以及如何使用。
提供的文件