库名称:transformers
标签:
- 代码
- 化学
- 医学
许可证:apache-2.0
数据集:
- Locutusque/hyperion-v2.0
语言:
- 英文
Hyperion-2.0-Mistral-7B

模型详情
- 模型名称:Locutusque/Hyperion-2.0-Mistral-7B
- 基础模型:mistralai/Mistral-7B-v0.1
- 发布者:Locutusque
- 模型类型:问答、对话式AI、代码生成、医学文本理解、数学推理、逻辑推理。
- 语言:多领域,英语。
- 许可证:Apache-2.0
模型描述
Locutusque/Hyperion-2.0-Mistral-7B
是一个基于Hyperion-v2.0数据集微调的最先进语言模型,用于跨科学领域的高级推理。该模型旨在处理复杂的查询和指令,利用Hyperion数据集中包含的多样且丰富的信息。其主要用例包括但不限于复杂问答、对话理解、代码生成、医学文本理解、数学推理和逻辑推理。
预期用途
该模型适用于研究人员和实践者,用于解决科学领域中的挑战性问题。可用于以下场景:
- 科学、医学、数学和计算机科学的AI驱动辅导系统。
- 需要快速准确获取领域特定信息的专业辅助工具。
- 需要具备技术和科学推理能力的对话式AI平台。
- 代码生成和复杂编程上下文理解的自动化。
训练数据
Locutusque/Hyperion-2.0-Mistral-7B
模型在Hyperion-v2.0数据集的750,000个示例上进行了微调,该数据集融合了编程、医学文本、数学问题和推理任务等多种多样且复杂的数据集。
量化版本
ExLlamaV2: https://huggingface.co/bartowski/Hyperion-2.0-Mistral-7B-exl2
GGUF: https://huggingface.co/bartowski/Hyperion-2.0-Mistral-7B-GGUF
AWQ: https://huggingface.co/solidrust/Hyperion-2.0-Mistral-7B-AWQ
评估结果
0-shot AGIEval
任务 |
版本 |
过滤 |
n-shot |
指标 |
值 |
|
标准误差 |
agieval_nous |
N/A |
无 |
0 |
准确率 |
0.3602 |
± |
0.0929 |
|
|
无 |
0 |
归一化准确率 |
0.3342 |
± |
0.0764 |
- agieval_aqua_rat |
1 |
无 |
0 |
准确率 |
0.2402 |
± |
0.0269 |
|
|
无 |
0 |
归一化准确率 |
0.2441 |
± |
0.0270 |
- agieval_logiqa_en |
1 |
无 |
0 |
准确率 |
0.2965 |
± |
0.0179 |
|
|
无 |
0 |
归一化准确率 |
0.3226 |
± |
0.0183 |
- agieval_lsat_ar |
1 |
无 |
0 |
准确率 |
0.2348 |
± |
0.0280 |
|
|
无 |
0 |
归一化准确率 |
0.2000 |
± |
0.0264 |
- agieval_lsat_lr |
1 |
无 |
0 |
准确率 |
0.3667 |
± |
0.0214 |
|
|
无 |
0 |
归一化准确率 |
0.3373 |
± |
0.0210 |
- agieval_lsat_rc |
1 |
无 |
0 |
准确率 |
0.4981 |
± |
0.0305 |
|
|
无 |
0 |
归一化准确率 |
0.4089 |
± |
0.0300 |
- agieval_sat_en |
1 |
无 |
0 |
准确率 |
0.6359 |
± |
0.0336 |
|
|
无 |
0 |
归一化准确率 |
0.5777 |
± |
0.0345 |
- agieval_sat_en_without_passage |
1 |
无 |
0 |
准确率 |
0.3883 |
± |
0.0340 |
|
|
无 |
0 |
归一化准确率 |
0.3544 |
± |
0.0334 |
- agieval_sat_math |
1 |
无 |
0 |
准确率 |
0.3500 |
± |
0.0322 |
|
|
无 |
0 |
归一化准确率 |
0.2682 |
± |
0.0299 |
组别 |
版本 |
过滤 |
n-shot |
指标 |
值 |
|
标准误差 |
agieval_nous |
N/A |
无 |
0 |
准确率 |
0.3602 |
± |
0.0929 |
|
|
无 |
0 |
归一化准确率 |
0.3342 |
± |
0.0764 |
5-shot AGIEval即将推出。
使用方法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Locutusque/Hyperion-1.5-Mistral-7B"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
input_text = "<|im_start|>user\n爱因斯坦的相对论对现代物理学有哪些影响?<|im_end|>\n<|im_start|>assistant\n"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
outputs = model.generate(input_ids, max_length=200, num_return_sequences=1, temperature=0.8, top_p=0.95, top_k=40, repetition_penalty=1.1)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
已知限制
数据集的多样性可能导致模型响应不一致,因为数据格式和注释质量存在差异。
该模型也非常顺从,会响应任何请求。如果计划将其用于企业级部署,请确保在此基础上使用DPO进行进一步优化。
许可信息
该模型根据Apache-2.0许可证发布。