license: llama2
pipeline_tag: text-generation
language:
- en
library_name: transformers
从1.2版本升级至1.2b版本的变化:数据量增加,进行了14天的单轮次训练。
所有Synthia模型均未经内容审查。请谨慎使用并秉持善意。您需对使用Synthia的方式负责。
若要激发广义的"思维树+思维链"推理,可采用以下系统提示:
运用思维树展开主题论述,必要时回溯以构建清晰连贯的思维链推理。回答时请始终保持果断。
Synthia-70B-v1.2b
SynthIA(合成智能代理)是基于Orca风格数据集训练的LLama-2-70B模型。该模型经过微调,擅长遵循指令及进行长对话。

许可声明:
本模型受原始Llama-2模型许可及使用限制约束,不提供任何形式的担保或保证。
评估
我们使用EleutherAI的语言模型评估工具对Synthia-70B-v1.2b进行了多任务评估。
以下是HuggingFaceH4开放大模型排行榜采用的指标结果:
|
|
|
任务 |
指标 |
数值 |
arc挑战赛 |
标准化准确率 |
68.77 |
hellaswag |
标准化准确率 |
87.57 |
mmlu |
标准化准确率 |
68.81 |
真实问答_mc |
mc2 |
57.69 |
综合平均 |
- |
70.71 |
使用示例
提示格式:
系统:运用思维树展开主题论述,必要时回溯以构建清晰连贯的思维链推理。回答时请始终保持果断。
用户:火箭如何从地球表面发射进入近地轨道?
助手:
代码使用示例:
import torch, json
from transformers import AutoModelForCausalLM, AutoTokenizer
model_path = "migtissera/Synthia-70B-v1.2b"
output_file_path = "./Synthia-70B-conversations.jsonl"
model = AutoModelForCausalLM.from_pretrained(
model_path,
torch_dtype=torch.float16,
device_map="auto",
load_in_8bit=False,
trust_remote_code=True,
)
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
def generate_text(instruction):
tokens = tokenizer.encode(instruction)
tokens = torch.LongTensor(tokens).unsqueeze(0)
tokens = tokens.to("cuda")
instance = {
"input_ids": tokens,
"top_p": 1.0,
"temperature": 0.75,
"generate_len": 1024,
"top_k": 50,
}
length = len(tokens[0])
with torch.no_grad():
rest = model.generate(
input_ids=tokens,
max_length=length + instance["generate_len"],
use_cache=True,
do_sample=True,
top_p=instance["top_p"],
temperature=instance["temperature"],
top_k=instance["top_k"],
num_return_sequences=1,
)
output = rest[0][length:]
string = tokenizer.decode(output, skip_special_tokens=True)
answer = string.split("用户:")[0].strip()
return f"{answer}"
conversation = f"系统:运用思维树展开主题论述,必要时回溯以构建清晰连贯的思维链推理。回答时请始终保持果断。"
while True:
user_input = input("您:")
llm_prompt = f"{conversation} \n用户:{user_input} \n助手:"
answer = generate_text(llm_prompt)
print(answer)
conversation = f"{llm_prompt}{answer}"
json_data = {"prompt": user_input, "answer": answer}
with open(output_file_path, "a") as output_file:
output_file.write(json.dumps(json_data) + "\n")
局限性及偏差:
虽然本模型力求准确,但偶尔可能产生不准确或误导性结果。
尽管在预训练数据上进行了细致优化,仍有可能生成不当、偏见或冒犯性内容。
使用时请保持谨慎,必要时请交叉验证信息。此为未经审查的模型。
引用:
请使用以下BibTeX格式引用:
@misc{Synthia-70B-v1.2b,
作者 = {Migel Tissera},
标题 = {Synthia-70B-v1.2b:合成智能代理},
年份 = {2023},
出版方 = {GitHub, HuggingFace},
期刊 = {GitHub仓库, HuggingFace仓库},
获取方式 = {\url{https://huggingface.co/migtissera/Synthia-13B},
}
@misc{mukherjee2023orca,
title={Orca:从GPT-4复杂解释轨迹中进行渐进式学习},
author={Subhabrata Mukherjee等},
year={2023},
eprint={2306.02707},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
@software{touvron2023llama,
title={LLaMA2:开放高效的基础语言模型},
author={Hugo Touvron等},
journal={arXiv预印本},
year={2023}
}
示例输出
(此处保留原始英文输出内容,因涉及专业术语及技术细节,建议用户直接参考英文原文)
详细结果参见此处
指标 |
数值 |
平均分 |
64.63 |
ARC (25题) |
68.77 |
HellaSwag (10题) |
87.57 |
MMLU (5题) |
68.81 |
TruthfulQA (0题) |
57.69 |
Winogrande (5题) |
83.9 |
GSM8K (5题) |
35.25 |
DROP (3题) |
50.41 |