M

Mixtral 7b 8expert

由 DiscoResearch 开发
MistralAI最新发布的混合专家(MoE)模型,支持多语言文本生成任务
下载量 57.47k
发布时间 : 12/8/2023
模型介绍
内容详情
替代品

模型简介

这是一个基于混合专家架构的大语言模型,支持英语、法语、意大利语、西班牙语和德语等多种语言的文本生成任务。

模型特点

混合专家架构
采用8专家混合架构,能够更高效地处理不同领域的任务
多语言支持
支持英语、法语、意大利语、西班牙语和德语等多种语言
高性能
在多个基准测试中表现优异,如hella swag(0.8661)、MMLU(0.7173)等

模型能力

多语言文本生成
知识问答
逻辑推理

使用案例

文本生成
多语言内容创作
生成各种语言的创意文本内容
问答系统
知识问答
回答各种领域的知识性问题
在MMLU基准测试中达到0.7173的准确率