基础模型: teknium/OpenHermes-2.5-Mistral-7B
标签:
- 微调
- 量化
- 4位
- AWQ
- transformers
- pytorch
- mistral
- 指令
- 文本生成
- 对话
- 许可证:apache-2.0
- 兼容自动训练
- 兼容端点
- 文本生成推理
- 区域:美国
- 微调
- chatml
- DPO
- RLHF
- gpt4
- 合成数据
- 蒸馏
模型索引:
- 名称: Nous-Hermes-2-Mistral-7B-DPO
结果: []
数据集:
- teknium/OpenHermes-2.5
许可证: apache-2.0
语言:
- 英文
量化者: Suparious
管道标签: 文本生成
模型创建者: NousResearch
模型名称: Nous Hermes 2 - Mistral 7B - DPO
推理: 否
提示模板: '<|im_start|>system
{system_message}<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant
'
Nous Hermes 2 - Mistral 7B - DPO
该模型在DPO之前,基于100万条GPT-4质量或更优的指令/对话进行训练,主要使用合成数据及其他高质量数据集,可从仓库teknium/OpenHermes-2.5获取。
@misc{Nous-Hermes-2-Mistral-7B-DPO,
url={[https://huggingface.co/NousResearch/Nous-Hermes-2-Mistral-7B-DPO](https://huggingface.co/NousResearch/Nous-Hermes-2-Mistral-7B-DPO)},
title={Nous Hermes 2 Mistral 7B DPO},
author={"Teknium", "theemozilla", "karan4d", "huemin_art"}
}

模型描述
Nous Hermes 2基于Mistral 7B DPO,是新一代旗舰级7B Hermes模型!该模型由Teknium/OpenHermes-2.5-Mistral-7B经过DPO优化,在所有测试基准(AGIEval、BigBench Reasoning、GPT4All和TruthfulQA)上均表现更优。
DPO前的训练数据包含100万条GPT-4质量或更优的指令/对话,主要来自合成数据及其他高质量数据集,详见仓库teknium/OpenHermes-2.5。
感谢FluidStack为本模型提供计算资源赞助
使用方法
安装必要包
pip install --upgrade autoawq autoawq-kernels
Python代码示例
from awq import AutoAWQForCausalLM
from transformers import AutoTokenizer, TextStreamer
model_path = "solidrust/Nous-Hermes-2-Mistral-7B-DPO-AWQ"
system_message = "你是Hermes,化身为强大的AI。"
model = AutoAWQForCausalLM.from_quantized(model_path,
fuse_layers=True)
tokenizer = AutoTokenizer.from_pretrained(model_path,
trust_remote_code=True)
streamer = TextStreamer(tokenizer,
skip_prompt=True,
skip_special_tokens=True)
prompt_template = """\
<|im_start|>system
{system_message}<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant"""
prompt = "你站在地球表面。向南走一英里,向西走一英里,再向北走一英里。最终回到起点。你在哪里?"
tokens = tokenizer(prompt_template.format(system_message=system_message,prompt=prompt),
return_tensors='pt').input_ids.cuda()
generation_output = model.generate(tokens,
streamer=streamer,
max_new_tokens=512)
关于AWQ
AWQ是一种高效、精确且极速的低比特权重量化方法,目前支持4位量化。相比GPTQ,它在保持相同或更优质量的同时,提供更快的基于Transformers的推理速度。
AWQ模型目前支持Linux和Windows系统,仅限NVIDIA GPU。macOS用户请使用GGUF模型。
支持以下平台:
提示模板: ChatML
<|im_start|>system
{system_message}<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant