extra_gated_heading: 您需要向Meta共享联系信息以访问此模型
extra_gated_prompt: >-
LLAMA 2社区许可协议
"协议"指本文规定的Llama材料使用、复制、分发和修改的条款和条件。
"文档"指Meta在https://ai.meta.com/resources/models-and-libraries/llama-downloads/分发的Llama 2随附的规格说明、手册和文档。
"被许可方"或"您"指您、您的雇主或任何其他个人或实体(如果您代表该个人或实体签订本协议),且已达到适用法律、规则或法规规定的提供法律同意的年龄,并具有法律授权代表您的雇主或该其他个人或实体签订本协议。
"Llama 2"指基础大型语言模型、软件和算法,包括机器学习模型代码、训练模型权重、推理启用代码、训练启用代码、微调启用代码以及Meta在ai.meta.com/resources/models-and-libraries/llama-downloads/分发的上述其他元素。
"Llama材料"统指根据本协议提供的Meta专有Llama 2和文档(及其任何部分)。
"Meta"或"我们"指Meta Platforms Ireland Limited(如果您位于欧洲经济区或瑞士,或如果是实体,您的主要营业地点位于欧洲经济区或瑞士)和Meta Platforms, Inc.(如果您位于欧洲经济区或瑞士以外)。
点击下方的"我接受"或使用或分发Llama材料的任何部分或元素,即表示您同意受本协议约束。
- 许可权利和再分发。
a. 权利授予。根据Meta在Llama材料中体现的知识产权或其他权利,授予您非排他性、全球性、不可转让且免版税的有限许可,以使用、复制、分发、复制、创建衍生作品和修改Llama材料。
b. 再分发和使用。
i. 如果您向第三方分发或提供Llama材料或其任何衍生作品,您应向该第三方提供本协议的副本。
ii. 如果您作为集成终端用户产品的一部分从被许可方接收Llama材料或其任何衍生作品,则本协议第2节不适用于您。
iii. 您必须在分发的所有Llama材料副本中保留以下归属声明,作为此类副本的一部分在"通知"文本文件中分发:"Llama 2根据LLAMA 2社区许可协议授权,版权所有(c) Meta Platforms, Inc.保留所有权利。"
iv. 您对Llama材料的使用必须遵守适用的法律和法规(包括贸易合规法律和法规),并遵守Llama材料的可接受使用政策(可在https://ai.meta.com/llama/use-policy获取),该政策通过引用并入本协议。
v. 您不得使用Llama材料或其任何输出或结果来改进任何其他大型语言模型(不包括Llama 2或其衍生作品)。
-
附加商业条款。如果在Llama 2版本发布之日,由被许可方或其关联公司提供的产品或服务的月活跃用户在之前日历月超过7亿月活跃用户,您必须向Meta申请许可,Meta可自行决定是否授予您许可,除非Meta明确授予您此类权利,否则您无权行使本协议下的任何权利。
-
免责声明。除非适用法律要求,Llama材料及其任何输出和结果均按"原样"提供,不提供任何明示或暗示的保证,包括但不限于所有权、不侵权、适销性或特定用途适用性的保证。您全权负责确定使用或再分发Llama材料的适当性,并承担与使用Llama材料及其任何输出和结果相关的任何风险。
-
责任限制。在任何情况下,Meta或其关联公司均不对因本协议引起的任何责任理论(无论是合同、侵权、疏忽、产品责任或其他)负责,包括任何利润损失或任何间接、特殊、后果性、附带性、示范性或惩罚性损害赔偿,即使Meta或其关联公司已被告知此类损害的可能性。
-
知识产权。
a. 本协议不授予任何商标许可,在与Llama材料相关的活动中,Meta和被许可方均不得使用对方或其任何关联公司拥有或关联的任何名称或标记,除非为合理和惯常的描述和再分发Llama材料所需。
b. 在Meta对Llama材料及Meta制作或为其制作的衍生作品的所有权前提下,对于您制作的Llama材料的任何衍生作品和修改,在您和Meta之间,您是并将继续是该等衍生作品和修改的所有者。
c. 如果您对Meta或任何实体(包括诉讼中的交叉索赔或反诉)提起诉讼或其他程序,指控Llama材料或Llama 2输出或结果或其任何部分构成对您拥有或可许可的知识产权或其他权利的侵权,则本协议授予您的任何许可应自该诉讼或索赔提交或提起之日起终止。您应就因您使用或分发Llama材料引起的任何第三方索赔对Meta进行赔偿并使其免受损害。
-
期限和终止。本协议自您接受本协议或访问Llama材料之日起生效,并将持续有效,直至根据本协议的条款和条件终止。如果您违反本协议的任何条款或条件,Meta可终止本协议。本协议终止后,您应删除并停止使用Llama材料。第3、4和7条在本协议终止后仍然有效。
-
适用法律和管辖权。本协议将根据加利福尼亚州法律解释和执行,不考虑法律冲突原则,《联合国国际货物销售合同公约》不适用于本协议。加利福尼亚州法院对因本协议引起的任何争议具有专属管辖权。
Llama 2可接受使用政策
Meta致力于促进其工具和功能(包括Llama 2)的安全和公平使用。如果您访问或使用Llama 2,即表示您同意本可接受使用政策("政策")。本政策的最新版本可在ai.meta.com/llama/use-policy找到。
禁止用途
我们希望每个人都能安全负责地使用Llama 2。您同意不会使用或允许他人使用Llama 2:
- 违反法律或他人权利,包括:
- 从事、促进、生成、促成、鼓励、计划、煽动或进一步非法或违法活动或内容,例如:
- 暴力或恐怖主义
- 对儿童的剥削或伤害,包括招揽、创建、获取或传播儿童剥削内容或未报告儿童性虐待材料
- 人口贩卖、剥削和性暴力
- 向未成年人非法分发信息或材料,包括淫秽材料,或未对此类信息或材料采用法律要求的年龄限制措施
- 性招揽
- 任何其他犯罪活动
- 从事、促进、煽动或便利对个人或群体的骚扰、虐待、威胁或欺凌
- 在就业、就业福利、信贷、住房、其他经济利益或其他基本商品和服务的提供中从事、促进、煽动或便利歧视或其他非法或有害行为
- 从事未经授权或无执照的任何职业实践,包括但不限于金融、法律、医疗/健康或相关专业实践
- 未经适用法律要求的权利和同意,收集、处理、披露、生成或推断有关个人的健康、人口统计或其他敏感个人或私人信息
- 从事或便利任何侵犯、盗用或以其他方式侵犯任何第三方权利的行为或生成任何内容,包括使用Llama 2材料的任何产品或服务的输出或结果
- 创建、生成或便利创建恶意代码、恶意软件、计算机病毒或任何可能禁用、过载、干扰或损害网站或计算机系统的正常工作、完整性、操作或外观的行为
- 从事、促进、煽动、便利或协助策划或开发可能导致个人死亡或身体伤害的活动,包括与以下方面相关的Llama 2使用:
- 军事、战争、核工业或应用、间谍活动、受美国国务院《国际武器贸易条例》(ITAR)管制的材料或活动
- 枪支和非法武器(包括武器开发)
- 非法毒品和受管制/管控物质
- 关键基础设施、运输技术或重型机械的操作
- 自残或伤害他人,包括自杀、自残和饮食失调
- 任何旨在煽动或促进暴力、虐待或对个人造成身体伤害的内容
- 故意欺骗或误导他人,包括与以下方面相关的Llama 2使用:
- 生成、促进或进一步欺诈或虚假信息的创建或推广
- 生成、促进或进一步诽谤性内容,包括诽谤性陈述、图像或其他内容的创建
- 生成、促进或进一步分发垃圾邮件
- 未经同意、授权或合法权利冒充他人
- 表示Llama 2或其输出是人工生成的
- 生成或便利虚假在线互动,包括虚假评论和其他虚假在线互动手段
- 未能向终端用户适当披露您的AI系统的任何已知危险
请通过以下方式之一报告违反本政策的行为、软件"错误"或其他可能导致违反本政策的问题:
- zh
pipeline_tag: text-generation
tags:
- facebook
- meta
- pytorch
- llama
- llama-2
license: llama2
Llama 2
Llama 2是一系列预训练和微调的生成文本模型,规模从70亿到700亿参数不等。这是13B预训练模型的存储库,已转换为Hugging Face Transformers格式。其他模型的链接可在底部索引中找到。
模型详情
注意:使用此模型受Meta许可协议约束。要下载模型权重和分词器,请访问网站并在请求访问前接受我们的许可协议。
Meta开发并公开发布了Llama 2系列大型语言模型(LLMs),这是一系列预训练和微调的生成文本模型,规模从70亿到700亿参数不等。我们的微调LLMs称为Llama-2-Chat,针对对话用例进行了优化。Llama-2-Chat模型在我们测试的大多数基准上优于开源聊天模型,在我们对人类帮助性和安全性评估中,与一些流行的闭源模型如ChatGPT和PaLM相当。
模型开发者 Meta
变体 Llama 2有多种参数规模——7B、13B和70B——以及预训练和微调变体。
输入 模型仅输入文本。
输出 模型仅生成文本。
模型架构 Llama 2是一种自回归语言模型,使用优化的transformer架构。调优版本使用监督微调(SFT)和人类反馈强化学习(RLHF)来对齐人类对帮助性和安全性的偏好。
|
训练数据 |
参数 |
内容长度 |
GQA |
标记 |
学习率 |
Llama 2 |
新的公开在线数据混合 |
7B |
4k |
✗ |
2.0T |
3.0 x 10-4 |
Llama 2 |
新的公开在线数据混合 |
13B |
4k |
✗ |
2.0T |
3.0 x 10-4 |
Llama 2 |
新的公开在线数据混合 |
70B |
4k |
✔ |
2.0T |
1.5 x 10-4 |
*Llama 2模型系列。*标记计数仅指预训练数据。所有模型均以400万标记的全局批量大小训练。更大的模型——70B——使用分组查询注意力(GQA)以提高推理可扩展性。
模型日期 Llama 2在2023年1月至2023年7月期间训练。
状态 这是一个基于离线数据集训练的静态模型。随着我们根据社区反馈改进模型安全性,将发布调优模型的新版本。
许可协议 可在以下网址获取自定义商业许可:https://ai.meta.com/resources/models-and-libraries/llama-downloads/
研究论文 "Llama-2: 开放基础和微调聊天模型"
预期用途
预期用例 Llama 2适用于英语的商业和研究用途。调优模型适用于类似助手的聊天,而预训练模型可适应各种自然语言生成任务。
要获得聊天版本的预期功能和性能,需要遵循特定的格式化要求,包括INST
和<<SYS>>
标签、BOS
和EOS
标记,以及之间的空格和换行(我们