M

Mixtral 8x7B Instruct V0.1

由 mistralai 开发
Mixtral-8x7B是一个预训练的生成式稀疏混合专家模型,在多数基准测试中表现优于Llama 2 70B。
下载量 505.97k
发布时间 : 12/10/2023
模型介绍
内容详情
替代品

模型简介

一个高性能的多语言大型语言模型,支持指令跟随和生成任务

模型特点

稀疏混合专家架构
采用8个7B参数专家模型的混合架构,在推理时仅激活部分专家,实现高效计算
多语言支持
原生支持五种欧洲主要语言,包括法语、意大利语、德语、西班牙语和英语
高性能
在多数基准测试中表现优于Llama 2 70B模型
指令优化
专门优化了指令跟随能力,适合构建对话系统和助手应用

模型能力

多语言文本生成
对话系统构建
指令理解与执行
知识问答
内容创作

使用案例

对话系统
智能助手
构建多语言智能助手,理解并回应用户指令
能够进行自然流畅的多轮对话
内容生成
多语言内容创作
生成多种语言的营销文案、文章等内容
高质量、符合语言习惯的文本输出