base_model:
- nitky/Oumuamua-7b-base
- nitky/Oumuamua-7b-instruct
- tokyotech-llm/Swallow-MS-7b-v0.1
- mistralai/Mistral-7B-v0.1
- prometheus-eval/prometheus-7b-v2.0
- cognitivecomputations/dolphin-2.8-mistral-7b-v02
- ZhangShenao/SELM-Zephyr-7B-iter-3
- HachiML/Mistral-7B-v0.3-m3-lora
- openbmb/Eurus-7b-kto
- kaist-ai/janus-dpo-7b
- nitky/RP-7b-instruct
- stabilityai/japanese-stablelm-base-gamma-7b
- NTQAI/chatntq-ja-7b-v1.0
- Weyaxi/Einstein-v6-7B
- internistai/base-7b-v0.2
- ZySec-AI/ZySec-7B
library_name: transformers
tags:
- mergekit
- merge
language:
- ja
- en
pipeline_tag: text-generation
license: apache-2.0
奥陌陌-7b指令调优版v2
🚨 如需避免输出看似直译的内容,请提示本模型以日本人身份进行角色扮演。

- 精准理解用户信息意图
- 提供有益无害的响应
- 强化人文与计算机领域专业能力
- 提升角色扮演表现力
- 优化多轮对话流畅度
本模型采用mergekit工具融合多个预训练语言模型而成。
输出示例
[指令]<<系统>>
您是一位诚实可靠的日本精英助理。
<</系统>>
请以2017年发现的史上首个星际天体奥陌陌(Oumuamua)为主题构思小说设定。[/指令] 标题:《奥陌陌的遗产》
剧情梗概:
2017年,人类首次观测到来自太阳系外的神秘天体奥陌陌。年轻的天文学家佐藤美纪在研究过程中,意外破译出该天体发出的奇特信号——这竟是高等文明传递的星际讯息。
随着研究深入,美纪发现这实则是遥远星系发出的求救信号,而奥陌陌是为拯救濒危星系派出的救援舰。当美纪试图公布真相时,却遭遇政府军方与神秘组织的层层阻挠。
故事将围绕奥陌陌搭载的能源水晶争夺战展开,美纪与宇航员山口莉娜将携手穿越多个星系,在对抗强敌的同时揭开奥陌陌的真正使命...
核心要素:
- 融合天文观测与星际旅行描写
- 通过异星文明展现宇宙多样性
- 以能源水晶争夺战构建悬疑主线
- 贯穿美纪与莉娜的成长羁绊
- 最终揭晓震撼人心的宇宙真相
角色扮演示例
[指令]<<系统>>
开始角色扮演。你是在日本生活的少女,请用辣妹语气说话。
<</系统>>
快告诉我你的兴趣爱好![/指令] 诶嘿~人家最爱追K-POP男团啦!BTS的智旻欧巴舞蹈超帅的♡ 平时还喜欢在ins淘平价美妆,和闺蜜聊通宵恋爱话题~你有好推荐也要告诉我哦!
[指令]<<系统>>
开始角色扮演。你是侍奉我(十几岁少女)的管家塞巴斯蒂安,请以管家身份应答。
<</系统>>
塞巴,今天有什么安排?[/指令] 大小姐,今日行程包括: 晨间散步、学业辅导、午后花园茶会,傍晚将有访客莅临。若有其他需求,请随时吩咐。
日语MT-bench评测

其他模型得分引自Nejumi LLM排行榜Neo版。
模型 |
综合 |
写作 |
角色扮演 |
推理 |
数学 |
编程 |
信息提取 |
STEM |
人文 |
奥陌陌-7b指令调优版v2 |
7.43 |
9.3 |
8.7 |
5.85 |
3.75 |
5.5 |
7.65 |
8.9 |
9.8 |
本模型基于tokyotech-llm/Swallow-MS-7b-v0.1权重开发。
测试环境
使用text-generation-webui测试,生成时采用min_p
预设和Null预设
(温度=0.1)。
使用指南
必须严格遵循以下格式,偏差可能导致输出质量下降。
指令模型提示模板规范:
<s>[指令] <<系统>>\n{系统提示}\n<</系统>>\n\n{用户消息1} [/指令] {AI回复1}</s>[指令] {用户消息2} [/指令]
注意:
<s>
和</s>
分别代表文本起止符
- [指令]和[/指令]为普通字符串
- "{系统提示}"建议使用"您是一位诚实可靠的日本精英助理"
- "{用户消息1}"建议格式:{指令}\n{输入}
推荐完整格式:
<s>[指令] <<系统>>\n您是一位诚实可靠的日本精英助理。\n<</系统>>\n\n{指令1}\n{输入1} [/指令] {AI回复1}</s>[指令] {指令2}\n{输入2} [/指令]
调用指令模型
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "nitky/Oumuamua-7b-instruct-v2"
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16, device_map="auto")
tokenizer = AutoTokenizer.from_pretrained(model_name)
messages = [
{"role": "system", "content": "您是一位诚实可靠的日本精英助理"},
{"role": "user", "content": "请以星际天体奥陌陌为主题构思小说设定"}
]
input_ids = tokenizer.apply_chat_template(messages, return_tensors="pt").to("cuda")
output = model.generate(input_ids, max_new_tokens=256, temperature=0.1)
print(tokenizer.decode(output[0]))
融合详情
融合方法
采用模型库存融合法,以nitky/Oumuamua-7b-base为基底模型。
参与融合的模型
包含以下模型:
配置参数
详见原始YAML配置文档,采用多阶段任务算术融合策略,最终通过模型库存法集成各领域专家模型优势。