基础模型:
- 152334H/miqu-1-70b-sf
语言:
- 英文
- 德文
- 法文
- 西班牙文
- 意大利文
库名称: transformers
标签:
- mergekit
- 合并
许可证: 其他
miqu-1-120b

这是基于miqu-1-70b通过mergekit工具对miqu-1-70b-sf进行层间交错融合生成的120b混合模型。
灵感来源于Venus-120b-v1.2、MegaDolphin-120b和goliath-120b。
特别感谢CopilotKit——这个开源平台支持在任何产品中集成应用内AI助手,兼容所有LLM模型。欢迎访问他们的GitHub。
感谢Lone Striker提供的EXL2和GGUF量化版本!
另可体验:miquliz-120b-v2.0——Miqu更年轻活力的"妹妹",一个融合Miqu与lzlv的改进版Goliath类模型。
用户评价
u/SomeOddCodeGuy在r/LocalLLaMA板块写道:
我太爱这个模型了。虽然慢得像圣诞老人派礼物,但效果惊艳。你的工作太棒了。
这模型快让我取消ChatGPT 4订阅了。加上Deepseek等几个模型,我可能不再需要ChatGPT了。
我在16k上下文使用Q8量化版,其语境保持能力令人惊叹。本周末打算做更多测试,但目前已非常出色。
这两天使用你的miqu-1体验非凡。它能像ChatGPT那样透彻理解我的每句话。我故意用越来越模糊随意的表达谈论琐事,它就像真人一样完美跟进。
不过miqu-1偶尔会忽略指令。我尝试创建一个更毒舌的AI助手时,多次强调不要道歉,但它总会在讽刺后补上"说真的,拼写错误很正常"之类的话。这是唯一遇到的问题。
(注:本人仅负责模型合并,主要功劳属于Mistral AI(正确署名!)、mergekit开发者,以及给予灵感的Venus-120b-v1.2和MegaDolphin-120b团队。)
模型详情
- 最大上下文: 32764 tokens(保留原始模型的特殊数值)
- 层数: 140
提示模板: Mistral格式
<s>[INST] {提示内容} [/INST]
另见:🐺🐦⬛ 17种指令模板对比测试:Mixtral 8x7B Instruct模型
合并详情
合并方法
采用passthrough(直通)合并法。
合并模型
包含以下模型:
配置参数
合并使用的YAML配置:
数据类型: float16
合并方法: passthrough
切片:
- 源模型:
- 层范围: [0, 20]
模型: 152334H/miqu-1-70b-sf
- 源模型:
- 层范围: [10, 30]
模型: 152334H/miqu-1-70b-sf
- 源模型:
- 层范围: [20, 40]
模型: 152334H/miqu-1-70b-sf
- 源模型:
- 层范围: [30, 50]
模型: 152334H/miqu-1-70b-sf
- 源模型:
- 层范围: [40, 60]
模型: 152334H/miqu-1-70b-sf
- 源模型:
- 层范围: [50, 70]
模型: 152334H/miqu-1-70b-sf
- 源模型:
- 层范围: [60, 80]
模型: 152334H/miqu-1-70b-sf
致谢名单
支持方式
- 我的Ko-fi主页欢迎打赏感谢或优先处理模型测试/合并请求。也请考虑支持您喜欢的模型创作者、量化工程师或前后端开发者,他们的付出值得回报!
免责声明
本模型包含泄露权重,理论上任何人都不应使用。 😜
严肃声明:
版权声明
已知事实: 机器生成的权重不受版权保护,因此获取文件后不存在可授予使用许可或限制使用的版权方。
伦理观点
个人信念: 所有生成式AI(包括LLM)都建立在人类数据(含公有领域和可能未经明确授权获取的受版权保护内容)及衍生合成数据基础上。基于全人类知识与数据构建的成果,理应向内容真正的创造者——公众自由开放。公平使用,AI向善!