M

Marcoro14 7B Slerp

由 mlabonne 开发
Marcoro14-7B-slerp是通过mergekit工具融合的两个7B参数模型,在开放LLM排行榜上表现优异
下载量 298
发布时间 : 12/29/2023
模型介绍
内容详情
替代品

模型简介

这是一个通过模型融合技术创建的7B参数大语言模型,结合了Marcoroni-7B-v3和Mistral-7B-Merge-14-v0.1两个模型的优势,在多项基准测试中表现优异。

模型特点

高性能融合模型
通过slerp融合方法结合两个优秀7B模型,在开放LLM排行榜上表现最佳
多领域优秀表现
在AGIEval、GPT4ALL、TruthfulQA和Bigbench等多个基准测试中均取得优异成绩
高效参数利用
仅7B参数规模却能超越许多更大参数的模型表现

模型能力

文本生成
问答系统
逻辑推理
数学计算
常识理解

使用案例

教育
学术问答
回答各类学术问题,特别是在逻辑推理和数学计算方面表现优异
在GSM8k数学测试中达到70.89%准确率
研究
基准测试研究
作为高效小规模模型的基准参考
在7B参数级别模型中最优表现
商业应用
智能客服
处理客户咨询和问题解答
在TruthfulQA测试中达到63.54分