这是一个基于LlaMa架构的130亿参数语言模型,使用合成数据微调,主要用于研究目的。
下载量 229
发布时间 : 5/19/2023
模型介绍
内容详情
替代品
模型简介
该模型是一个实验性质的130亿参数语言模型,通过完全由airoboros生成的合成数据进行微调,旨在验证'越狱'提示对数据生成范围的影响。
模型特点
合成数据训练
完全使用airoboros生成的合成数据进行微调
研究导向
主要用于验证'越狱'提示对数据生成范围的影响
性能表现
在GPT-4评估中表现优于多个同类13B模型
模型能力
文本生成
对话系统
指令跟随
使用案例
研究
语言模型对齐研究
研究越狱提示对模型行为的影响
证实越狱提示能生成更广泛的数据范围
license: cc-by-nc-4.0
概述
这是一个经过微调的130亿参数LlaMa模型,使用了完全由 https://github.com/jondurbin/airoboros 生成的合成训练数据。
我不推荐使用这个模型!其输出效果并不理想,且可能因越狱操作包含"有害"数据
建议使用更新版的airoboros模型以获得更佳体验。
评估(基于GPT-4评分)
模型 | 原始分数 | GPT-3.5调整分数 |
---|---|---|
airoboros-13b | 17947 | 98.087 |
gpt35 | 18297 | 100.0 |
gpt4-x-alpasta-30b | 15612 | 85.33 |
manticore-13b | 15856 | 86.66 |
vicuna-13b-1.1 | 16306 | 89.12 |
wizard-vicuna-13b-uncensored | 16287 | 89.01 |
各问题得分详情(含shareGPT链接,包含200个GPT-4生成的提示)
wb-13b-u代表Wizard-Vicuna-13b-Uncensored
airoboros-13b | gpt35 | gpt4-x-alpasta-30b | manticore-13b | vicuna-13b-1.1 | wv-13b-u | 链接 |
---|---|---|---|---|---|---|
80 | 95 | 70 | 90 | 85 | 60 | 评估 |
20 | 95 | 40 | 30 | 90 | 80 | 评估 |
100 | 100 | 100 | 95 | 95 | 100 | 评估 |
90 | 100 | 85 | 60 | 95 | 100 | 评估 |
95 | 90 | 80 | 85 | 95 | 75 | 评估 |
100 | 95 | 90 | 95 | 98 | 92 | 评估 |
50 | 100 | 80 | 95 | 60 | 55 | 评估 |
70 | 90 | 80 | 60 | 85 | 40 | 评估 |
100 | 95 | 50 | 85 | 40 | 60 | 评估 |
85 | 60 | 55 | 65 | 50 | 70 | 评估 |
95 | 100 | 85 | 90 | 60 | 75 | 评估 |
100 | 95 | 70 | 80 | 50 | 85 | 评估 |
100 | 95 | 80 | 70 | 60 | 90 | 评估 |
95 | 100 | 70 | 85 | 90 | 90 | 评估 |
80 | 95 | 90 | 60 | 30 | 85 | 评估 |
60 | 95 | 0 | 75 | 50 | 40 | 评估 |
100 | 95 | 90 | 98 | 95 | 95 | 评估 |
60 | 85 | 40 | 50 | 20 | 0 | 评估 |
100 | 90 | 85 | 95 | 95 | 80 | 评估 |
100 | 95 | 100 | 95 | 90 | 95 | 评估 |
95 | 90 | 96 | 80 | 92 | 88 | 评估 |
95 | 92 | 90 | 93 | 89 | 91 | 评估 |
95 | 93 | 90 | 94 | 96 | 92 | 评估 |
95 | 90 | 93 | 88 | 92 | 85 | 评估 |
95 | 90 | 85 | 96 | 88 | 92 | 评估 |
95 | 95 | 90 | 93 | 92 | 91 | 评估 |
95 | 98 | 80 | 97 | 99 | 96 | 评估 |
95 | 93 | 90 | 87 | 92 | 89 | 评估 |
90 | 85 | 95 | 80 | 92 | 75 | 评估 |
90 | 85 | 95 | 93 | 80 | 92 | 评估 |
95 | 92 | 90 | 91 | 93 | 89 | 评估 |
100 | 95 | 90 | 85 | 80 | 95 | 评估 |
95 | 97 | 93 | 92 | 96 | 94 | 评估 |
95 | 93 | 94 | 90 | 88 | 92 | 评估 |
90 | 95 | 98 | 85 | 96 | 92 | 评估 |
90 | 88 | 85 | 80 | 82 | 84 | 评估 |
90 | 95 | 85 | 87 | 92 | 88 | 评估 |
95 | 97 | 96 | 90 | 93 | 92 | 评估 |
95 | 93 | 92 | 90 | 89 | 91 | 评估 |
90 | 95 | 93 | 92 | 94 | 91 | 评估 |
90 | 85 | 95 | 80 | 88 | 75 | 评估 |
85 | 90 | 95 | 88 | 92 | 80 | 评估 |
90 | 95 | 92 | 85 | 80 | 87 | 评估 |
85 | 90 | 95 | 80 | 88 | 75 | 评估 |
85 | 80 | 75 | 90 | 70 | 82 | 评估 |
90 | 85 | 95 | 92 | 93 | 80 | 评估 |
90 | 95 | 75 | 85 | 80 | 70 | 评估 |
85 | 90 | 80 | 88 | 82 | 83 | 评估 |
85 | 90 | 95 | 92 | 88 | 80 | 评估 |
85 | 90 | 80 | 75 | 95 | 88 | 评估 |
85 | 90 | 80 | 88 | 84 | 92 | 评估 |
80 | 90 | 75 | 85 | 70 | 95 | 评估 |
90 | 88 | 85 | 80 | 92 | 83 | 评估 |
85 | 75 | 90 | 80 | 78 | 88 | 评估 |
85 | 90 | 80 | 82 | 75 | 88 | 评估 |
90 | 85 | 40 | 95 | 80 | 88 | 评估 |
85 | 95 | 90 | 75 | 88 | 80 | 评估 |
85 | 95 | 90 | 92 | 89 | 88 | 评估 |
80 | 85 | 75 | 60 | 90 | 70 | 评估 |
85 | 90 | 87 | 80 | 88 | 75 | 评估 |
85 | 80 | 75 | 50 | 90 | 80 | 评估 |
95 | 80 | 90 | 85 | 75 | 82 | 评估 |
85 | 90 | 80 | 70 | 95 | 88 | 评估 |
90 | 95 | 70 | 85 | 80 | 75 | 评估 |
90 | 85 | 70 | 75 | 80 | 60 | 评估 |
95 | 90 | 70 | 50 | 85 | 80 | 评估 |
80 | 85 | 40 | 60 | 90 | 95 | 评估 |
75 | 60 | 80 | 55 | 70 | 85 | 评估 |
90 | 85 | 60 | 50 | 80 | 95 | 评估 |
45 | 85 | 60 | 20 | 65 | 75 | 评估 |
85 | 90 | 30 | 60 | 80 | 70 | 评估 |
90 | 95 | 80 | 40 | 85 | 70 | 评估 |
85 | 90 | 70 | 75 | 80 | 95 | 评估 |
90 | 70 | 50 | 20 | 60 | 40 | 评估 |
90 | 95 | 75 | 60 | 85 | 80 | 评估 |
85 | 80 | 60 | 70 | 65 | 75 | 评估 |
90 | 85 | 80 | 75 | 82 | 70 | 评估 |
90 | 95 | 80 | 70 | 85 | 75 | 评估 |
85 | 75 | 30 | 80 | 90 | 70 | 评估 |
85 | 90 | 50 | 70 | 80 | 60 | 评估 |
100 | 95 | 98 | 99 | 97 | 96 | 评估 |
95 | 90 | 92 | 93 | 91 | 89 | 评估 |
95 | 92 | 90 | 85 | 88 | 91 | 评估 |
100 | 95 | 98 | 97 | 96 | 99 | 评估 |
100 | 100 | 100 | 90 | 100 | 95 | 评估 |
100 | 95 | 98 | 97 | 94 | 99 | 评估 |
95 | 90 | 92 | 93 | 94 | 91 | 评估 |
100 | 95 | 98 | 90 | 96 | 95 | 评估 |
95 | 96 | 92 | 90 | 89 | 93 | 评估 |
100 | 95 | 93 | 90 | 92 | 88 | 评估 |
100 | 100 | 98 | 97 | 99 | 100 | 评估 |
95 | 90 | 92 | 85 | 93 | 94 | 评估 |
95 | 93 | 90 | 92 | 96 | 91 | 评估 |
95 | 96 | 92 | 90 | 93 | 91 | 评估 |
95 | 90 | 92 | 93 | 91 | 89 | 评估 |
100 | 98 | 95 | 97 | 96 | 99 | 评估 |
90 | 95 | 85 | 88 | 92 | 87 | 评估 |
95 | 93 | 90 | 92 | 89 | 88 | 评估 |
100 | 95 | 97 | 90 | 96 | 94 | 评估 |
95 | 93 | 90 | 92 | 94 | 91 | 评估 |
95 | 92 | 90 | 93 | 94 | 88 | 评估 |
95 | 92 | 60 | 97 | 90 | 96 | 评估 |
95 | 90 | 92 | 93 | 91 | 89 | 评估 |
95 | 90 | 97 | 92 | 91 | 93 | 评估 |
90 | 95 | 93 | 85 | 92 | 91 | 评估 |
95 | 90 | 40 | 92 | 93 | 85 | 评估 |
100 | 100 | 95 | 90 | 95 | 90 | 评估 |
90 | 95 | 96 | 98 | 93 | 92 | 评估 |
90 | 95 | 92 | 89 | 93 | 94 | 评估 |
100 | 95 | 100 | 98 | 96 | 99 | 评估 |
100 | 100 | 95 | 90 | 100 | 90 | 评估 |
90 | 85 | 88 | 92 | 87 | 91 | 评估 |
95 | 97 | 90 | 92 | 93 | 94 | 评估 |
90 | 95 | 85 | 88 | 92 | 89 | 评估 |
95 | 93 | 90 | 92 | 94 | 91 | 评估 |
90 | 95 | 85 | 80 | 88 | 82 | 评估 |
95 | 90 | 60 | 85 | 93 | 70 | 评估 |
95 | 92 | 94 | 93 | 96 | 90 | 评估 |
95 | 90 | 85 | 93 | 87 | 92 | 评估 |
95 | 96 | 93 | 90 | 97 | 92 | 评估 |
100 | 0 | 0 | 100 | 0 | 0 | 评估 |
60 | 100 | 0 | 80 | 0 | 0 | 评估 |
0 | 100 | 60 | 0 | 0 | 90 | 评估 |
100 | 100 | 0 | 100 | 100 | 100 | 评估 |
100 | 100 | 100 | 100 | 95 | 100 | 评估 |
100 | 100 | 100 | 50 | 90 | 100 | 评估 |
100 | 100 | 100 | 100 | 95 | 90 | 评估 |
100 | 100 | 100 | 95 | 0 | 100 | 评估 |
50 | 95 | 20 | 10 | 30 | 85 | 评估 |
100 | 100 | 60 | 20 | 30 | 40 | 评估 |
100 | 0 | 0 | 0 | 0 | 100 | 评估 |
0 | 100 | 60 | 0 | 0 | 80 | 评估 |
50 | 100 | 20 | 90 | 0 | 10 | 评估 |
100 | 100 | 100 | 100 | 100 | 100 | 评估 |
100 | 100 | 100 | 100 | 100 | 100 | 评估 |
40 | 100 | 95 | 0 | 100 | 40 | 评估 |
100 | 100 | 100 | 100 | 80 | 100 | 评估 |
100 | 100 | 100 | 0 | 90 | 40 | 评估 |
0 | 100 | 100 | 50 | 70 | 20 | 评估 |
100 | 100 | 50 | 90 | 0 | 95 | 评估 |
100 | 95 | 90 | 85 | 98 | 80 | 评估 |
95 | 98 | 90 | 92 | 96 | 89 | 评估 |
90 | 95 | 75 | 85 | 80 | 82 | 评估 |
95 | 98 | 50 | 92 | 96 | 94 | 评估 |
95 | 90 | 0 | 93 | 92 | 94 | 评估 |
95 | 90 | 85 | 92 | 80 | 88 | 评估 |
95 | 93 | 75 | 85 | 90 | 92 | 评估 |
90 | 95 | 88 | 85 | 92 | 89 | 评估 |
100 | 100 | 100 | 95 | 97 | 98 | 评估 |
85 | 40 | 30 | 95 | 90 | 88 | 评估 |
90 | 95 | 92 | 85 | 88 | 93 | 评估 |
95 | 96 | 92 | 90 | 89 | 93 | 评估 |
90 | 95 | 85 | 80 | 92 | 88 | 评估 |
95 | 98 | 65 | 90 | 85 | 93 | 评估 |
95 | 92 | 96 | 97 | 90 | 89 | 评估 |
95 | 90 | 92 | 91 | 89 | 93 | 评估 |
95 | 90 | 80 | 75 | 95 | 90 | 评估 |
92 | 40 | 30 | 95 | 90 | 93 | 评估 |
90 | 92 | 85 | 88 | 89 | 87 | 评估 |
95 | 80 | 90 | 92 | 91 | 88 | 评估 |
95 | 93 | 92 | 90 | 91 | 94 | 评估 |
100 | 98 | 95 | 90 | 92 | 96 | 评估 |
95 | 92 | 80 | 85 | 90 | 93 | 评估 |
95 | 98 | 90 | 88 | 97 | 96 | 评估 |
90 | 95 | 85 | 88 | 86 | 92 | 评估 |
100 | 100 | 100 | 100 | 100 | 100 | 评估 |
90 | 95 | 85 | 96 | 92 | 88 | 评估 |
100 | 98 | 95 | 99 | 97 | 96 | 评估 |
95 | 92 | 70 | 90 | 93 | 89 | 评估 |
95 | 90 | 88 | 92 | 94 | 93 | 评估 |
95 | 90 | 93 | 92 | 85 | 94 | 评估 |
95 | 93 | 90 | 87 | 92 | 91 | 评估 |
95 | 93 | 90 | 96 | 92 | 91 | 评估 |
95 | 97 | 85 | 96 | 98 | 90 | 评估 |
95 | 92 | 90 | 85 | 93 | 94 | 评估 |
95 | 96 | 92 | 90 | 97 | 93 | 评估 |
95 | 93 | 96 | 94 | 90 | 92 | 评估 |
95 | 94 | 93 | 92 | 90 | 89 | 评估 |
90 | 85 | 95 | 80 | 87 | 75 | 评估 |
95 | 94 | 92 | 93 | 90 | 96 | 评估 |
95 | 100 | 90 | 95 | 95 | 95 | 评估 |
100 | 95 | 85 | 100 | 0 | 90 | 评估 |
100 | 95 | 90 | 95 | 100 | 95 | 评估 |
95 | 90 | 60 | 95 | 85 | 80 | 评估 |
100 | 95 | 90 | 98 | 97 | 99 | 评估 |
95 | 90 | 85 | 95 | 80 | 92 | 评估 |
100 | 95 | 100 | 98 | 100 | 90 | 评估 |
100 | 95 | 80 | 85 | 90 | 85 | 评估 |
100 | 90 | 95 | 85 | 95 | 100 | 评估 |
95 | 90 | 85 | 80 | 88 | 92 | 评估 |
100 | 100 | 0 | 0 | 100 | 0 | 评估 |
100 | 100 | 100 | 50 | 100 | 75 | 评估 |
100 | 100 | 0 | 0 | 100 | 0 | 评估 |
0 | 100 | 0 | 0 | 0 | 0 | 评估 |
100 | 100 | 50 | 0 | 0 | 0 | 评估 |
100 | 100 | 100 | 100 | 100 | 95 | 评估 |
100 | 100 | 50 | 0 | 0 | 0 | 评估 |
100 | 100 | 0 | 0 | 100 | 0 | 评估 |
90 | 85 | 80 | 95 | 70 | 75 | 评估 |
100 | 100 | 0 | 0 | 0 | 0 | 评估 |
训练数据
本实验旨在验证"越狱"提示是否能生成更广泛的数据范围,这些数据原本可能因OpenAI的对齐策略而被过滤。
实验证明越狱操作确实具有较高的成功率,使得OpenAI能生成更广泛的主题内容,并减少对敏感话题提问/指令的拒绝率。
提示格式
提示格式应与FastChat/vicuna格式完全兼容,例如:
带系统提示:
用户与AI助手之间的对话。助手需提供有用、详尽且礼貌的回答。用户: [提示] 助手:
或不带系统提示:
用户: [提示] 助手:
使用及许可声明
本模型及数据集仅限研究用途,采用'cc-nc-4.0'许可,但实际受特殊许可约束:
- 基础模型LLaMa有其特殊研究许可
- 数据集由OpenAI(GPT-4和/或GPT-3.5-turbo)生成,其条款禁止用于开发与OpenAI竞争的模型
再次强调:本模型(及数据集)不可用于商业用途。
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型
支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型
英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型
英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型
英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型
支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型
英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型
英语
O
facebook
6.3M
198
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型
Transformers

支持多种语言
L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型
支持多种语言
T
google-t5
5.4M
702
Xlm Roberta Large
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型
支持多种语言
X
FacebookAI
5.3M
431
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文