S

Smaug 72B V0.1

由 abacusai 开发
首个平均分突破80%的开源大语言模型,基于MoMo-72B-lora-1.8.7-DPO微调,采用创新的DPO-Positive技术优化偏好学习
下载量 119
发布时间 : 2/2/2024
模型介绍
内容详情
替代品

模型简介

72B参数规模的开源大语言模型,在HuggingFace开放大语言模型排行榜中表现优异,适用于复杂推理、数学计算和文本生成等任务

模型特点

DPO-Positive优化
采用创新的DPOP损失函数,有效解决标准DPO在数学数据集上的概率下降问题
高性能表现
HuggingFace开放大语言模型排行榜首个平均分突破80%的开源模型
多任务优化
在ARC、HellaSwag和MetaMath等多样化数据集上表现优异

模型能力

复杂文本生成
数学问题求解
编程代码生成
多轮对话
知识问答
逻辑推理

使用案例

内容创作
技术文章撰写
生成包含结构化提纲的技术对比文章
如智能手机功能对比示例所示
教育辅助
数学问题解答
分步骤解决概率计算等数学问题
如概率计算示例所示
软件开发
算法实现
编写基础算法代码
如数组交集查找示例所示