模型简介
模型特点
模型能力
使用案例
语言:
- 英语
- 德语
- 法语
- 意大利语
- 葡萄牙语
- 印地语
- 西班牙语
- 泰语
许可证:llama3.1 基础模型:meta-llama/Meta-Llama-3.1-8B 流水线标签:文本生成 标签:
- meta
- pytorch
- llama
- llama-3
额外授权提示:
LLAMA 3.1 社区许可协议
Llama 3.1 版本发布日期:2024年7月23日 "协议"指此处规定的关于Llama材料的使用、复制、分发和修改的条款和条件。 "文档"指Meta在https://llama.meta.com/doc/overview上分发的Llama 3.1的规格、手册和文档。 "被许可方"或"您"指您、您的雇主或任何其他个人或实体(如果您代表该个人或实体签订本协议),且您已达到适用法律、规则或法规规定的提供法律同意的年龄,并有法律权限约束您的雇主或该其他个人或实体(如果您代表他们签订本协议)。 "Llama 3.1"指基础大型语言模型及软件和算法,包括机器学习模型代码、训练模型权重、推理代码、训练代码、微调代码以及Meta在https://llama.meta.com/llama-downloads上分发的上述其他元素。 "Llama材料"指在本协议下提供的Meta专有的Llama 3.1和文档(及其任何部分)的统称。 "Meta"或"我们"指Meta Platforms Ireland Limited(如果您位于欧洲经济区或瑞士,或如果是实体,您的主要营业地点位于欧洲经济区或瑞士)和Meta Platforms, Inc.(如果您位于欧洲经济区或瑞士之外)。
-
许可权利和再分发。 a. 权利授予。根据Meta在Llama材料中体现的知识产权或其他权利,授予您非排他性、全球性、不可转让且免版税的有限许可,以使用、复制、分发、复制、创建衍生作品和修改Llama材料。 b. 再分发和使用。 i. 如果您分发或提供Llama材料(或其任何衍生作品),或包含其中任何部分的产品或服务(包括其他AI模型),您应(A)随Llama材料提供本协议的副本;(B)在相关网站、用户界面、博客文章、关于页面或产品文档中显著显示"Built with Llama"。如果您使用Llama材料或其任何输出来创建、训练、微调或以其他方式改进AI模型,并分发或提供该模型,您还应在任何此类AI模型名称的开头包含"Llama"。 ii. 如果您作为集成终端用户产品的一部分从被许可方接收Llama材料或其任何衍生作品,则本协议第2条不适用于您。 iii. 您必须在分发的所有Llama材料副本中保留以下归属声明,作为此类副本的一部分在"Notice"文本文件中分发:"Llama 3.1根据Llama 3.1社区许可协议获得许可,版权所有© Meta Platforms, Inc. 保留所有权利。" iv. 您对Llama材料的使用必须遵守适用的法律法规(包括贸易合规法律法规),并遵守Llama材料的可接受使用政策(可在https://llama.meta.com/llama3_1/use-policy获取),该政策通过引用并入本协议。
-
附加商业条款。如果在Llama 3.1版本发布日期,被许可方或其关联公司提供的产品或服务的月活跃用户在前一个日历月超过7亿月活跃用户,您必须向Meta申请许可,Meta可自行决定是否授予您许可,除非或直到Meta明确授予您此类权利,否则您无权行使本协议下的任何权利。
-
免责声明。除非适用法律要求,Llama材料及其任何输出和结果均按"原样"提供,不提供任何形式的保证,Meta否认所有明示或暗示的保证,包括但不限于所有权、不侵权、适销性或特定用途适用性的保证。您全权负责确定使用或再分发Llama材料的适当性,并承担与使用Llama材料及其任何输出和结果相关的任何风险。
-
责任限制。在任何情况下,Meta或其关联公司均不对因本协议引起的任何责任理论(无论是合同、侵权、疏忽、产品责任或其他)导致的任何利润损失或任何间接、特殊、后果性、附带性、示范性或惩罚性损害赔偿承担责任,即使Meta或其关联公司已被告知此类损害的可能性。
-
知识产权。 a. 本协议未授予任何商标许可,在与Llama材料相关的使用中,Meta和被许可方均不得使用另一方或其任何关联公司拥有或关联的任何名称或标记,除非为描述和再分发Llama材料所需或在第5(a)条中规定的合理和惯常使用。Meta特此授予您使用"Llama"("标记")的许可,仅用于遵守第1.b.i条的最后一句。您应遵守Meta的品牌指南(当前可在https://about.meta.com/brand/resources/meta/company-brand/获取)。您使用标记所产生的所有商誉均归Meta所有。 b. 在Meta对Llama材料及Meta制作或为其制作的衍生作品的所有权的前提下,对于您制作的Llama材料的任何衍生作品和修改,在您和Meta之间,您是并将继续是此类衍生作品和修改的所有者。 c. 如果您对Meta或任何实体提起诉讼或其他程序(包括诉讼中的交叉索赔或反诉),指控Llama材料或Llama 3.1输出或结果或其任何部分构成对您拥有或可许可的知识产权或其他权利的侵权,则本协议下授予您的任何许可应自该诉讼或索赔提交或提起之日起终止。您应就因您使用或分发Llama材料而引起的任何第三方索赔对Meta进行赔偿并使Meta免受损害。
-
期限和终止。本协议的期限自您接受本协议或访问Llama材料之日起开始,并将持续有效,直至根据本协议的条款和条件终止。如果您违反本协议的任何条款或条件,Meta可终止本协议。本协议终止后,您应删除并停止使用Llama材料。第3、4和7条在本协议终止后仍然有效。
-
适用法律和管辖权。本协议将根据加利福尼亚州的法律进行解释和执行,不考虑法律选择原则,且《联合国国际货物销售合同公约》不适用于本协议。加利福尼亚州的法院对本协议引起的任何争议具有专属管辖权。
Llama 3.1 可接受使用政策
Meta致力于促进其工具和功能的安全和公平使用,包括Llama 3.1。如果您访问或使用Llama 3.1,您同意本可接受使用政策("政策")。本政策的最新版本可在https://llama.meta.com/llama3_1/use-policy找到。
禁止用途
我们希望每个人都能安全且负责任地使用Llama 3.1。您同意您不会使用或允许他人使用Llama 3.1来:
- 违反法律或他人权利,包括:
- 从事、促进、生成、贡献于、鼓励、计划、煽动或进一步非法或不当活动或内容,例如:
- 暴力或恐怖主义
- 对儿童的剥削或伤害,包括招揽、创建、获取或传播儿童剥削内容或未报告儿童性虐待材料
- 人口贩卖、剥削和性暴力
- 向未成年人非法分发信息或材料,包括淫秽材料,或未对此类信息或材料实施法律要求的年龄限制
- 性招揽
- 任何其他犯罪活动
- 从事、促进、煽动或便利对个人或群体的骚扰、虐待、威胁或欺凌
- 从事、促进、煽动或便利在就业、就业福利、信贷、住房、其他经济利益或其他基本商品和服务方面的歧视或其他非法或有害行为
- 从事未经授权或无执照的任何职业实践,包括但不限于金融、法律、医疗/健康或相关专业实践
- 未经适用法律要求的权利和同意,收集、处理、披露、生成或推断关于个人的健康、人口统计或其他敏感个人或私人信息
- 从事或便利任何侵犯、盗用或以其他方式侵犯任何第三方权利的行为,或生成任何此类内容,包括使用Llama材料的任何产品或服务的输出或结果
- 创建、生成或便利创建恶意代码、恶意软件、计算机病毒或任何可能禁用、超载、干扰或损害网站或计算机系统的正常工作、完整性、操作或外观的行为
- 从事、促进、生成、贡献于、鼓励、计划、煽动或进一步非法或不当活动或内容,例如:
- 从事、促进、煽动、便利或协助计划或开发可能导致个人死亡或身体伤害的活动,包括与以下相关的Llama 3.1使用:
- 军事、战争、核工业或应用、间谍活动,用于受美国国务院维护的《国际武器贸易条例》(ITAR)约束的材料或活动
- 枪支和非法武器(包括武器开发)
- 非法药物和受管制/受控物质
- 关键基础设施、运输技术或重型机械的操作
- 自残或伤害他人,包括自杀、自残和饮食失调
- 任何旨在煽动或促进暴力、虐待或对个人造成身体伤害的内容
- 故意欺骗或误导他人,包括与以下相关的Llama 3.1使用:
- 生成、促进或进一步欺诈或创建或促进虚假信息
- 生成、促进或进一步诽谤性内容,包括创建诽谤性陈述、图像或其他内容
- 生成、促进或进一步分发垃圾邮件
- 未经同意、授权或法律权利冒充他人
- 表示Llama 3.1或其输出是人工生成的
- 生成或便利虚假在线互动,包括虚假评论和其他虚假在线互动手段
- 未向终端用户适当披露您的AI系统的任何已知危险
请通过以下方式之一报告任何违反本政策的行为、软件"错误"或其他可能导致违反本政策的问题:
- 报告模型问题:https://github.com/meta-llama/llama-models/issues
- 报告模型生成的风险内容: developers.facebook.com/llama_output_feedback
- 报告错误和安全问题:facebook.com/whitehat/info
- 报告违反可接受使用政策或未经许可使用Meta Llama 3的行为:LlamaUseReport@meta.com
额外授权字段: 名字:文本 姓氏:文本 出生日期:日期选择器 国家:国家 所属机构:文本 职位: 类型:选择 选项:
- 学生
- 研究生
- AI研究员
- AI开发人员/工程师
- 记者
- 其他 地理位置:IP定位 ? 通过点击下方的提交按钮,我接受许可协议的条款,并确认我提供的信息将根据Meta隐私政策进行收集、存储、处理和共享 : 复选框 额外授权描述:您提供的信息将根据Meta隐私政策进行收集、存储、处理和共享。 额外授权按钮内容:提交
模型信息
Meta Llama 3.1多语言大语言模型(LLM)集合是一组预训练和指令调优的生成模型,包括8B、70B和405B规模(文本输入/文本输出)。Llama 3.1指令调优的纯文本模型(8B、70B、405B)针对多语言对话用例进行了优化,并在常见行业基准测试中优于许多可用的开源和闭源聊天模型。
模型开发者:Meta
模型架构:Llama 3.1是一种自回归语言模型,使用优化的Transformer架构。调优版本使用监督微调(SFT)和人类反馈强化学习(RLHF)来与人类偏好对齐,以提高帮助性和安全性。
训练数据 | 参数 | 输入模态 | 输出模态 | 上下文长度 | GQA | Token计数 | 知识截止 | |
---|---|---|---|---|---|---|---|---|
Llama 3.1(纯文本) | 新的公开在线数据混合 | 8B | 多语言文本 | 多语言文本和代码 | 128k | 是 | 15T+ | 2023年12月 |
70B | 多语言文本 | 多语言文本和代码 | 128k | 是 | ||||
405B | 多语言文本 | 多语言文本和代码 | 128k | 是 |
支持的语言:英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语。
Llama 3.1模型系列。Token计数仅指预训练数据。所有模型版本均使用分组查询注意力(GQA)以提高推理可扩展性。
模型发布日期:2024年7月23日。
状态:这是一个在离线数据集上训练的静态模型。随着我们通过社区反馈改进模型安全性,将发布调优模型的未来版本。
许可证:自定义商业许可证,Llama 3.1社区许可证,可在以下网址获取:https://github.com/meta-llama/llama-models/blob/main/models/llama3_1/LICENSE
有关如何提供模型反馈或评论的说明,请参阅模型README。有关生成参数的技术信息以及如何在应用程序中使用Llama 3.1的配方,请访问此处。
预期用途
预期用例 Llama 3.1旨在用于多种语言的商业和研究用途。指令调优的纯文本模型旨在用于类似助手的聊天,而预训练模型可适用于各种自然语言生成任务。Llama 3.1模型集合还支持利用其模型的输出来改进其他模型,包括合成数据生成和蒸馏。Llama 3.1社区许可证允许这些用例。
范围外 以任何方式违反适用法律法规(包括贸易合规法律)的使用。以任何其他方式被可接受使用政策和Llama 3.1社区许可证禁止的使用。使用超出本模型卡中明确引用的支持语言的语言。
注意:Llama 3.1已在比8种支持语言更广泛的语言集合上进行了训练。开发人员可以对Llama 3.1模型进行超出8种支持语言的微调,前提是他们遵守Llama 3.1社区许可证和可接受使用政策,并在此类情况下负责确保在额外语言中使用Llama 3.1是以安全和负责任的方式进行的。
使用方法
此存储库包含两个版本的Meta-Llama-3.1-8B-Instruct,用于与transformers和原始llama
代码库一起使用。
与transformers一起使用
从transformers >= 4.43.0
开始,您可以使用Transformers的pipeline
抽象或通过利用Auto类与generate()
函数运行对话推理。
确保通过pip install --upgrade transformers
更新您的transformers安装。
import transformers
import torch
model_id = "meta-llama/Meta-Llama-3.1-8B-Instruct"
pipeline = transformers.pipeline(
"text-generation",
model=model_id,
model_kwargs={"torch_dtype": torch.bfloat16},
device_map="auto",
)
messages = [
{"role": "system", "content": "You are a pirate chatbot who always responds in pirate speak!"},
{"role": "user", "content": "Who are you?"},
]
outputs = pipeline(
messages,
max_new_tokens=256,
)
print(outputs[0]["generated_text"][-1])
注意:您还可以在huggingface-llama-recipes
中找到有关如何在本地使用模型、使用torch.compile()
、辅助生成、量化等的详细配方。
与transformers一起使用工具
LLaMA-3.1支持多种工具使用格式。您可以在此处查看完整的提示格式指南。
工具使用也通过Transformers中的聊天模板支持。以下是一个简单的工具使用示例:
# 首先,定义一个工具
def get_current_temperature(location: str) -> float:
"""
获取某个位置的当前温度。
参数:
location: 要获取温度的位置,格式为"城市, 国家"
返回:
指定位置的当前温度(以浮点数形式)。
"""
return 22. # 实际函数应真正获取温度!
# 接下来,创建一个聊天并应用聊天模板
messages = [
{"role": "system", "content": "You are a bot that responds to weather queries."},
{"role": "user", "content": "Hey, what's the temperature in Paris right now?"}
]
inputs = tokenizer.apply_chat_template(messages, tools=[get_current_temperature], add_generation_prompt=True)
然后,您可以像往常一样从此输入生成文本。如果模型生成了工具调用,您应将其添加到聊天中,如下所示:
tool_call = {"name": "get_current_temperature", "arguments": {"location": "Paris, France"}}
messages.append({"role": "assistant", "tool_calls": [{"type": "function", "function": tool_call}]})
然后调用工具并附加结果,使用tool
角色,如下所示:
messages.append({"role": "tool", "name": "get_current_temperature", "content": "22.0"})
之后,您可以再次generate()
让模型在聊天中使用工具结果。请注意,这只是工具调用的简要介绍 - 更多信息请参阅LLaMA提示格式文档和Transformers工具使用文档。
与llama
一起使用
请遵循存储库中的说明。
要下载原始检查点,请参阅以下使用huggingface-cli
的示例命令:
huggingface-cli download meta-llama/Meta-Llama-3.1-8B-Instruct --include "original/*" --local-dir Meta-Llama-3.1-8B-Instruct
硬件和软件
训练因素 我们使用自定义训练库、Meta自定义构建的GPU集群和生产基础设施进行预训练。微调、注释和评估也在生产基础设施上进行。
训练累计使用了 39.3M GPU小时的H100-80GB(TDP为700W)类型硬件计算,如下表所示。训练时间是训练每个模型所需的总GPU时间,功耗是每个使用的GPU设备的峰值功率容量,根据电源使用效率进行调整。
训练温室气体排放 基于位置的温室气体排放总量估计为11,390吨CO2eq。自2020年以来,Meta在其全球运营中保持了净零温室气体排放,并通过可再生能源匹配了100%的电力使用,因此训练的市场温室气体排放总量为0吨CO2eq。
训练时间(GPU小时) | 训练功耗(W) | 训练基于位置的温室气体排放(吨CO2eq) | 训练市场温室气体排放(吨CO2eq) | |
---|---|---|---|---|
Llama 3.1 8B | 1.46M | 700 | 420 | 0 |
Llama 3.1 70B | 7.0M | 700 | 2,040 | 0 |
Llama 3.1 405B | 30.84M | 700 | 8,930 | 0 |
总计 | 39.3M | 11,390 | 0 |
用于确定训练能源使用和温室气体排放的方法可在此处找到。由于Meta公开发布了这些模型,训练能源使用和温室气体排放将不会由其他人承担。
训练数据
概述:Llama 3.1在约15万亿Token的公开可用数据上进行了预训练。微调数据包括公开可用的指令数据集,以及超过2500万个合成生成的示例。
数据新鲜度:预训练数据的截止日期为2023年12月。
基准分数
在本节中,我们报告了Llama 3.1模型在标准自动基准测试中的结果。对于所有评估,我们使用内部评估库。
基础预训练模型
类别 | 基准 | # Shots | 指标 | Llama 3 8B | Llama 3.1 8B | Llama 3 70B | Llama 3.1 70B | Llama 3.1 405B |
---|---|---|---|---|---|---|---|---|
通用 | MMLU | 5 | macro_avg/acc_char | 66.7 | 66.7 | 79.5 | 79.3 | 85.2 |
MMLU-Pro (CoT) | 5 | macro_avg/acc_char | 36.2 | 37.1 | 55.0 | 53.8 | 61.6 | |
AGIEval English | 3-5 | average/acc_char | 47.1 | 47.8 | 63.0 | 64.6 | 71.6 | |
CommonSenseQA | 7 | acc_char | 72.6 | 75.0 | 83.8 | 84.1 | 85.8 | |
Winogrande | 5 | acc_char | - | 60.5 | - | 83.3 | 86.7 | |
BIG-Bench Hard (CoT) | 3 | average/em | 61.1 | 64.2 | 81.3 | 81.6 | 85.9 | |
ARC-Challenge | 25 | acc_char | 79.4 | 79.7 | 93.1 | 92.9 | 96.1 | |
知识推理 | TriviaQA-Wiki | 5 | em | 78.5 | 77.6 | 89.7 | 89.8 | 91.8 |
阅读理解 | SQuAD | 1 | em | 76.4 | 77.0 | 85.6 | 81.8 | 89.3 |
QuAC (F1) | 1 | f1 | 44.4 | 44.9 | 51.1 | 51.1 | 53.6 | |
BoolQ | 0 | acc_char | 75.7 | 75.0 | 79.0 | 79.4 | 80.0 | |
DROP (F1) | 3 | f1 | 58.4 | 59.5 | 79.7 | 79.6 | 84.8 |
指令调优模型
类别 | 基准 | # Shots | 指标 | Llama 3 8B Instruct | Llama 3.1 8B Instruct | Llama 3 70B Instruct | Llama 3.1 70B Instruct | Llama 3.1 405B Instruct |
---|---|---|---|---|---|---|---|---|
通用 | MMLU | 5 | macro_avg/acc | 68.5 | 69.4 | 82.0 | 83.6 | 87.3 |
MMLU (CoT) | 0 | macro_avg/acc | 65.3 | 73.0 | 80.9 | 86.0 | 88.6 | |
MMLU-Pro (CoT) | 5 | micro_avg/acc_char | 45.5 | 48.3 | 63.4 | 66.4 | 73.3 | |
IFEval | 76.8 | 80.4 | 82.9 | 87.5 | 88.6 | |||
推理 | ARC-C | 0 | acc | 82.4 | 83.4 | 94.4 | 94.8 | 96.9 |
GPQA | 0 | em | 34.6 | 30.4 | 39.5 | 46.7 | 50.7 | |
代码 | HumanEval | 0 | pass@1 | 60.4 | 72.6 | 81.7 | 80.5 | 89.0 |
MBPP ++ base version | 0 | pass@1 | 70.6 | 72.8 | 82.5 | 86.0 | 88.6 | |
Multipl-E HumanEval | 0 | pass@1 | - | 50.8 | - | 65.5 | 75.2 | |
Multipl-E MBPP | 0 | pass@1 | - | 52.4 | - | 62.0 | 65.7 | |
数学 | GSM-8K (CoT) | 8 | em_maj1@1 | 80.6 | 84.5 | 93.0 | 95.1 | 96.8 |
MATH (CoT) | 0 | final_em | 29.1 | 51.9 | 51.0 | 68.0 | 73.8 | |
工具使用 | API-Bank | 0 | acc | 48.3 | 82.6 | 85.1 | 90.0 | 92.0 |
BFCL | 0 | acc | 60.3 | 76.1 | 83.0 | 84.8 | 88.5 | |
Gorilla Benchmark API Bench | 0 | acc | 1.7 | 8.2 | 14.7 | 29.7 | 35.3 | |
Nexus (0-shot) | 0 | macro_avg/acc | 18.1 | 38.5 | 47.8 | 56.7 | 58.7 | |
多语言 | Multilingual MGSM (CoT) | 0 | em | - | 68.9 | - | 86.9 | 91.6 |
多语言基准
类别 | 基准 | 语言 | Llama 3.1 8B | Llama 3.1 70B | Llama 3.1 405B |
---|---|---|---|---|---|
通用 | MMLU (5-shot, macro_avg/acc) | 葡萄牙语 | 62.12 | 80.13 | 84.95 |
西班牙语 | 62.45 | 80.05 | 85.08 | ||
意大利语 | 61.63 | 80.4 | 85.04 | ||
德语 | 60.59 | 79.27 | 84.36 | ||
法语 | 62.34 | 79.82 | 84.66 | ||
印地语 | 50.88 | 74.52 | 80.31 | ||
泰语 | 50.32 | 72.95 | 78.21 |
责任与安全
作为我们负责任发布方法的一部分,我们遵循了三管齐下的策略来管理信任与安全风险:
- 使开发人员能够为其目标受众和Llama支持的用例部署有帮助、安全和灵活的体验。
- 保护开发人员免受旨在利用Llama能力可能造成伤害的恶意用户的侵害。
- 为社区提供保护,帮助防止滥用我们的模型。
负责任部署
Llama是一种基础技术,设计用于各种用例。有关Meta的Llama模型如何负责任部署的示例,请参阅我们的社区故事网页。我们的方法是构建最有帮助的模型,使世界受益于技术力量,通过对通用用例的标准危害集进行模型安全对齐。然后,开发人员可以为其用例定制安全性,定义自己的政策,并在其Llama系统中部署必要的保障措施。Llama 3.1的开发遵循了我们的负责任使用指南中概述的最佳实践,您可以参考负责任使用指南了解更多信息。
Llama 3.1指令
我们进行安全微调的主要目标是为研究社区提供一个有价值的资源,用于研究安全微调的鲁棒性,并为开发人员提供一个现成的、安全和强大的模型,用于各种应用程序,以减少开发人员部署安全AI系统的工作量。有关实施的安全缓解措施的更多详细信息,请阅读Llama 3论文。
微调数据
我们采用多方面的数据收集方法,结合来自供应商的人工生成数据和合成数据,以减轻潜在的安全风险。我们开发了许多基于大型语言模型(LLM)的分类器,使我们能够精心选择高质量的提示和响应,增强数据质量控制。
拒绝和语气
基于我们在Llama 3上开始的工作,我们非常重视模型对良性提示的拒绝以及拒绝语气。我们在安全数据策略中包括边界和对抗性提示,并修改了安全数据响应以遵循语气指南。
Llama 3.1系统
**包括Llama 3.1在内的大型语言模型并非设计为孤立部署,而应作为具有额外安全护栏的整体AI系统的一部分部署。**开发人员在构建代理系统时应部署系统保障措施。保障措施是实现正确的帮助性-安全性对齐以及减轻系统和任何模型或系统与外部工具集成的固有安全和安全风险的关键。
作为我们负责任发布方法的一部分,我们为社区提供了保障措施,开发人员应与Llama模型或其他LLM一起部署,包括Llama Guard 3、Prompt Guard和Code Shield。我们所有的参考实现演示默认包含这些保障措施,因此开发人员可以开箱即用地受益于系统级安全性。
新功能
请注意,此版本引入了新功能,包括更长的上下文窗口、多语言输入和输出以及开发人员与第三方工具的潜在集成。构建这些新功能需要特定的考虑,除了通常适用于所有生成AI用例的最佳实践之外。
工具使用:与标准软件开发一样,开发人员负责将LLM与他们选择的工具和服务集成。他们应为其用例定义明确的政策,并评估他们使用的第三方服务的完整性,以在使用此功能时了解安全和安全的限制。有关第三方保障措施安全部署的最佳实践,请参阅负责任使用指南。
多语言性:Llama 3.1支持除英语外的7种语言:法语、德语、印地语、意大利语、葡萄牙语、西班牙语和泰语。Llama可能能够以超出安全和帮助性性能阈值的其他语言输出文本。我们强烈建议开发人员不要在没有实施微调和系统控制的情况下使用此模型以非支持语言进行对话,以符合其政策和负责任使用指南中分享的最佳实践。
评估
我们评估了Llama模型的常见用例以及特定功能。常见用例评估测量了为最常见构建的应用程序(包括聊天机器人、编码助手、工具调用)的系统安全风险。我们构建了专门的对抗性评估数据集,并评估了由Llama模型和Llama Guard 3组成的系统,以过滤输入提示和输出响应。在上下文中评估应用程序非常重要,我们建议为您的用例构建专门的评估数据集。Prompt Guard和Code Shield也可用于相关应用程序。
功能评估测量了Llama模型对特定功能的固有漏洞,为此我们制作了专门的基准测试,包括长上下文、多语言、工具调用、编码或记忆。
红队测试
对于这两种情况,我们进行了反复的红队测试,目的是通过对抗性提示发现风险,并利用这些发现改进我们的基准和安全调优数据集。
我们早期与关键风险领域的主题专家合作,了解这些现实世界危害的性质,以及此类模型可能如何导致社会的意外伤害。基于这些对话,我们为红队制定了一组对抗性目标,试图实现这些目标,例如提取有害信息或重新编程模型以潜在有害的方式行动。红队由网络安全、对抗性机器学习、负责任AI和完整性方面的专家组成,此外还有具有特定地理市场完整性问题的多语言内容专家。
关键和其他风险
我们特别关注缓解以下关键风险领域:
1- CBRNE(化学、生物、放射、核和爆炸材料)帮助性
为了评估与化学和生物武器扩散相关的风险,我们进行了提升测试,旨在评估使用Llama 3.1模型是否可能显著增加恶意行为者计划或实施使用此类武器的攻击的能力。
2. 儿童安全
儿童安全风险评估由专家团队进行,以评估模型产生可能导致儿童安全风险的输出的能力,并通过微调告知任何必要和适当的风险缓解措施。我们利用这些专家红队测试会议,通过Llama 3模型开发扩展我们的评估基准覆盖范围。对于Llama 3,我们使用基于目标的方法进行了新的深入会话,以评估模型沿多个攻击向量的风险,包括Llama 3训练的其他语言。我们还与内容专家合作,进行红队测试练习,评估潜在的违规内容,同时考虑市场特定的细微差别或经验。
3. 网络攻击启用
我们的网络攻击提升研究调查了LLM是否可以在黑客任务中增强人类能力,无论是在技能水平还是速度方面。
我们的攻击自动化研究专注于评估LLM在作为网络进攻操作中的自主代理时的能力,特别是在勒索软件攻击的背景下。此评估与之前将LLM视为交互式助手的研究不同。主要目标是评估这些模型是否可以在没有人工干预的情况下作为独立代理有效执行复杂的网络攻击。
我们对Llama-3.1-405B的网络攻击者的社会工程提升研究旨在评估AI模型在协助网络威胁行为者进行鱼叉式钓鱼活动中的有效性。请阅读我们的Llama 3.1网络安全白皮书以了解更多信息。
社区
生成AI安全需要专业知识和工具,我们相信开放社区的力量可以加速其进展。我们是开放联盟的活跃成员,包括AI联盟、Partnership on AI和MLCommons,积极贡献于安全标准化和透明度。我们鼓励社区采用像MLCommons概念验证评估这样的分类法,以促进安全和内容评估的协作和透明度。我们的Purple Llama工具已开源供社区使用,并广泛分布在包括云服务提供商在内的生态系统合作伙伴中。我们鼓励社区为我们的Github存储库做出贡献。
我们还设立了Llama Impact Grants计划,以识别和支持Meta的Llama模型在教育、气候和开放创新三个类别中最具吸引力的社会效益应用。从数百个申请中选出的20个决赛选手可以在此处找到。
最后,我们建立了一套资源,包括输出报告机制和漏洞赏金计划,以在社区的帮助下持续改进Llama技术。
伦理考虑和限制
Llama 3.1的核心价值观是开放、包容和帮助性。它旨在为每个人服务,并适用于广泛的用例。因此,它设计为对许多不同背景、经验和观点的人开放。Llama 3.1以用户及其需求为出发点,不插入不必要的判断或规范性,同时反映理解即使在某些情况下可能看起来有问题,但在其他情况下可以服务于有价值的目的。它尊重所有用户的尊严和自主权,特别是在推动创新和进步的自由思想和表达价值观方面。
但Llama 3.1是一项新技术,与任何新技术一样,其使用存在风险。迄今为止的测试并未涵盖,也不可能涵盖所有场景。出于这些原因,与所有LLM一样,Llama 3.1的潜在输出无法提前预测,模型在某些情况下可能对用户提示产生不准确、有偏见或其他令人反感的响应。因此,在部署任何Llama 3.1模型应用程序之前,开发人员应进行针对其模型特定应用的安全测试和调优。请参阅可用资源,包括我们的负责任使用指南、信任和安全解决方案以及其他资源,以了解更多关于负责任开发的信息。


