Z

Zephyr Orpo 141b A35b V0.1 GGUF

由 MaziyarPanahi 开发
基于Mixtral-8x22B-v0.1微调的1410亿参数混合专家模型(MoE),激活参数350亿,主要用于英语文本生成任务
下载量 10.04k
发布时间 : 4/11/2024
模型介绍
内容详情
替代品

模型简介

这是一个经过ORPO优化的Zephyr系列大型语言模型,采用混合专家架构,适用于高效文本生成任务

模型特点

高效混合专家架构
采用8专家混合设计,总参数量1410亿但仅激活350亿参数,实现高效推理
多级量化支持
提供从2比特到16比特多种量化级别,适应不同硬件需求
优化对话能力
基于高质量合成数据集微调,具备优秀的对话交互能力

模型能力

文本生成
对话系统
指令跟随
内容创作

使用案例

智能助手
在线客服机器人
部署为网站客服助手,处理常见问题咨询
示例对话显示能流畅处理多轮交互
内容生成
步骤指南生成
根据用户请求生成分步操作指南
示例中成功生成10步建站指南