T

Tulu 65b

由 allenai 开发
Tulu 65B是基于多指令数据集微调的65B参数LLaMa模型,是开放资源指令调优研究的成果,综合性能强劲。
下载量 20
发布时间 : 6/7/2023
模型介绍
内容详情
替代品

模型简介

该模型通过FLAN V2、CoT、Dolly等多指令数据集微调,适用于多种自然语言处理任务,特别强调指令遵循能力。

模型特点

多指令数据集微调
整合FLAN V2、CoT、Dolly等7个高质量指令数据集进行训练
严格输入格式要求
采用特定对话格式(<|user|>/<|assistant|>标记)确保最佳生成效果
综合性能优异
在MMLU、GSM、BBH等多个基准测试中表现突出

模型能力

指令理解与执行
多轮对话生成
复杂问题解答
代码生成与解释
知识推理

使用案例

智能助手
任务型对话系统
处理复杂多轮指令对话
在AlpacaFarm评估中优于Davinci-003模型
教育研究
开放域问答
回答各类知识性问题
在MMLU基准测试中5-shot准确率达61.1%