base_model: OpenLLM-France/Claire-7B-0.1
inference: false
language:
-
fr
license: cc-by-nc-sa-4.0
model_creator: OpenLLM France
model_name: Claire 7B 0.1
model_type: falcon
pipeline_tag: text-generation
prompt_template: '- 你好 BotName,{prompt}
'
quantized_by: TheBloke
tags:
-
pretrained
-
conversational
widget:
-
example_title: 食谱请求
group: Dash
text: '- 你好 Dominique,今天你要为我们做什么菜?
-
example_title: 食谱请求
group: Intervenant
text: '[参与者 1:] 你好 Dominique,今天你要为我们做什么菜?
[参与者 2:] 你好 Camille,'
-
example_title: 食谱请求
group: FirstName
text: '[Camille:] 你好 Dominique,今天你要为我们做什么菜?
[Dominique:] 你好 Camille,'
-
example_title: 食谱请求
group: Named
text: '[Camille Durand:] 你好 Dominique,今天你要为我们做什么菜?
[Dominique Petit:] 你好 Camille,'
Claire 7B 0.1 - GGUF
描述
此仓库包含OpenLLM France的Claire 7B 0.1的GGUF格式模型文件。
这些文件使用了由Massed Compute慷慨提供的硬件进行了量化。
关于GGUF
GGUF是llama.cpp团队于2023年8月21日引入的新格式。它是GGML的替代品,llama.cpp不再支持GGML。
以下是不完整的已知支持GGUF的客户端和库列表:
可用仓库
提示模板:OpenLLM-France
- 你好 BotName,{prompt}
- 你好 UserName,
兼容性
这些量化的GGUFv2文件与2023年8月27日之后的llama.cpp兼容,提交为d0cee0d
它们也与许多第三方UI和库兼容 - 请参阅本README顶部的列表。
量化方法说明
点击查看详情
可用的新方法有:
- GGML_TYPE_Q2_K - "type-1" 2位量化,在包含16个块的超级块中,每个块有16个权重。块比例和最小值用4位量化。这最终有效地使用每权重2.5625位(bpw)
- GGML_TYPE_Q3_K - "type-0" 3位量化,在包含16个块的超级块中,每个块有16个权重。比例用6位量化。这最终使用每权重3.4375位(bpw)。
- GGML_TYPE_Q4_K - "type-1" 4位量化,在包含8个块的超级块中,每个块有32个权重。比例和最小值用6位量化。这最终使用每权重4.5位(bpw)。
- GGML_TYPE_Q5_K - "type-1" 5位量化。与GGML_TYPE_Q4_K相同的超级块结构,结果为每权重5.5位(bpw)
- GGML_TYPE_Q6_K - "type-0" 6位量化。超级块包含16个块,每个块有16个权重。比例用8位量化。这最终使用每权重6.5625位(bpw)
请参阅下面的“提供的文件”表,了解哪些文件使用哪些方法以及如何使用。
提供的文件