base_model: CausalLM/7B
datasets:
-
JosephusCheung/GuanacoDataset
-
Open-Orca/OpenOrca
-
stingning/ultrachat
-
meta-math/MetaMathQA
-
liuhaotian/LLaVA-Instruct-150K
-
jondurbin/airoboros-3.1
-
WizardLM/WizardLM_evol_instruct_V2_196k
-
RyokoAI/ShareGPT52K
-
RyokoAI/Fandom23K
-
milashkaarshif/MoeGirlPedia_wikitext_raw_archive
-
维基百科
-
wiki_lingua
-
fnlp/moss-003-sft-data
-
garage-bAInd/Open-Platypus
-
LDJnr/Puffin
-
openbmb/llava_zh
-
BAAI/COIG
-
TigerResearch/tigerbot-zhihu-zh-10k
-
liwu/MNBVC
-
teknium/openhermes
inference: false
language:
-
英文
-
中文
license: wtfpl
model_creator: CausalLM
model_name: CausalLM 7B
model_type: llama
pipeline_tag: 文本生成
prompt_template: '<|im_start|>system
{system_message}<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant
'
quantized_by: TheBloke
tags:
-
llama
-
llama2
-
qwen
CausalLM 7B - GGUF
描述
此仓库包含CausalLM的CausalLM 7B的GGUF格式模型文件。
注意:最初上传的GGUF由于词汇表问题无法使用。此问题已于10月23日15:00 UTC修复。现在上传的文件确认可以正常工作。
如果您下载了最初上传的GGUF文件,请重新下载GGUF。
关于GGUF
GGUF是llama.cpp团队于2023年8月21日引入的新格式。它是GGML的替代品,llama.cpp不再支持GGML。
以下是已知支持GGUF的客户端和库的不完整列表:
可用仓库
提示模板: ChatML
<|im_start|>system
{system_message}<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant
许可
源模型的创建者将其许可列为wtfpl
,因此此量化使用了相同的许可。
由于此模型基于Llama 2,因此也受Meta Llama 2许可条款的约束,并额外包含了这些许可文件。因此,应认为其声称在两种许可下均获得许可。我已联系Hugging Face以澄清双重许可问题,但他们尚未有官方立场。如果此情况发生变化,或Meta对此情况提供任何反馈,我将相应更新此部分。
在此期间,有关许可的任何问题,特别是这两种许可如何相互作用的问题,应直接指向原始模型仓库:CausalLM的CausalLM 7B。
兼容性
这些量化的GGUFv2文件与自8月27日起的llama.cpp兼容,提交d0cee0d
它们也与许多第三方UI和库兼容 - 请参阅本README顶部的列表。
量化方法说明
点击查看详情
可用的新方法有:
- GGML_TYPE_Q2_K - "type-1" 2位量化,超级块包含16个块,每个块有16个权重。块比例和最小值用4位量化。最终有效使用每权重2.5625位(bpw)
- GGML_TYPE_Q3_K - "type-0" 3位量化,超级块包含16个块,每个块有16个权重。比例用6位量化。最终使用每权重3.4375 bpw。
- GGML_TYPE_Q4_K - "type-1" 4位量化,超级块包含8个块,每个块有32个权重。比例和最小值用6位量化。最终使用每权重4.5 bpw。
- GGML_TYPE_Q5_K - "type-1" 5位量化。与GGML_TYPE_Q4_K相同的超级块结构,最终使用每权重5.5 bpw
- GGML_TYPE_Q6_K - "type-0" 6位量化。超级块包含16个块,每个块有16个权重。比例用8位量化。最终使用每权重6.5625 bpw
参考下面的提供文件表,查看哪些文件使用了哪些方法,以及如何使用。
提供文件