模型简介
模型特点
模型能力
使用案例
🚀 Meta Llama 3 大语言模型
Meta Llama 3 是 Meta 推出的一系列预训练和指令微调的生成式文本模型,有 8B 和 70B 两种参数规模。该模型针对对话用例进行了优化,在常见行业基准测试中表现出色,同时注重模型的实用性和安全性。
🚀 快速开始
本仓库包含两个版本的 Meta-Llama-3-8B-Instruct
,可分别与 transformers
库和原始的 llama3
代码库配合使用。
使用 Transformers 库
你可以使用 Transformers
库的管道抽象或 Auto
类结合 generate()
函数进行对话推理。以下是两种方法的示例:
Transformers 管道
import transformers
import torch
model_id = "meta-llama/Meta-Llama-3-8B-Instruct"
pipeline = transformers.pipeline(
"text-generation",
model=model_id,
model_kwargs={"torch_dtype": torch.bfloat16},
device_map="auto",
)
messages = [
{"role": "system", "content": "You are a pirate chatbot who always responds in pirate speak!"},
{"role": "user", "content": "Who are you?"},
]
prompt = pipeline.tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
terminators = [
pipeline.tokenizer.eos_token_id,
pipeline.tokenizer.convert_tokens_to_ids("<|eot_id|>")
]
outputs = pipeline(
prompt,
max_new_tokens=256,
eos_token_id=terminators,
do_sample=True,
temperature=0.6,
top_p=0.9,
)
print(outputs[0]["generated_text"][len(prompt):])
Transformers AutoModelForCausalLM
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model_id = "meta-llama/Meta-Llama-3-8B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto",
)
messages = [
{"role": "system", "content": "You are a pirate chatbot who always responds in pirate speak!"},
{"role": "user", "content": "Who are you?"},
]
input_ids = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
return_tensors="pt"
).to(model.device)
terminators = [
tokenizer.eos_token_id,
tokenizer.convert_tokens_to_ids("<|eot_id|>")
]
outputs = model.generate(
input_ids,
max_new_tokens=256,
eos_token_id=terminators,
do_sample=True,
temperature=0.6,
top_p=0.9,
)
response = outputs[0][input_ids.shape[-1]:]
print(tokenizer.decode(response, skip_special_tokens=True))
使用 llama3
代码库
请遵循 仓库 中的说明进行操作。
若要下载原始检查点,可使用以下 huggingface-cli
命令示例:
huggingface-cli download meta-llama/Meta-Llama-3-8B-Instruct --include "original/*" --local-dir Meta-Llama-3-8B-Instruct
对于 Hugging Face 支持,我们建议使用 transformers
或 TGI
,类似的命令同样适用。
✨ 主要特性
- 多参数规模:提供 8B 和 70B 两种参数规模的模型,满足不同场景需求。
- 优化架构:采用优化的变压器架构,结合监督微调(SFT)和基于人类反馈的强化学习(RLHF),使模型更符合人类对实用性和安全性的偏好。
- 广泛适用性:预训练模型可适应多种自然语言生成任务,指令微调模型适用于类助手聊天场景。
- 安全保障:采取一系列措施降低模型的潜在风险,如进行广泛的红队测试、对抗性评估和实施安全缓解技术。
📦 安装指南
文档未提及具体安装步骤,可参考上述快速开始部分的使用说明。
💻 使用示例
基础用法
上述快速开始部分的代码示例展示了如何使用 transformers
库和 llama3
代码库进行对话推理,可作为基础用法参考。
高级用法
文档未提供高级用法的具体代码示例,可根据实际需求进一步探索模型的功能和参数设置。
📚 详细文档
量化详情
这是 Meta Llama3 Instruct 8B 模型的 4 位量化版本,使用 Llama.cpp 转换并量化为 GGUF 格式。
模型详情
- 模型开发者:Meta
- 变体:Llama 3 有 8B 和 70B 两种参数规模,包括预训练和指令微调两种变体。
- 输入:模型仅接受文本输入。
- 输出:模型仅生成文本和代码。
- 模型架构:Llama 3 是一种自回归语言模型,采用优化的变压器架构。微调版本使用监督微调(SFT)和基于人类反馈的强化学习(RLHF)来与人类对实用性和安全性的偏好保持一致。
属性 | 详情 |
---|---|
模型类型 | Meta Llama 3 是一系列大语言模型,有 8B 和 70B 两种参数规模,包括预训练和指令微调变体。 |
训练数据 | 预训练数据来自公开可用来源,超过 15 万亿个标记。微调数据包括公开可用的指令数据集和超过 1000 万个手动标注的示例。 |
发布日期 | 2024 年 4 月 18 日 |
状态 | 这是一个基于离线数据集训练的静态模型。随着我们根据社区反馈改进模型安全性,未来将发布微调模型的新版本。 |
许可证 | 可在 https://llama.meta.com/llama3/license 获取自定义商业许可证。 |
预期用途
- 预期用例:Llama 3 旨在用于英语商业和研究。指令微调模型适用于类助手聊天,预训练模型可适应多种自然语言生成任务。
- 超出范围:禁止以任何违反适用法律法规(包括贸易合规法律)的方式使用,以及违反可接受使用政策和 Llama 3 社区许可证的任何其他使用方式。不建议在英语以外的语言中使用。但开发者可在遵守 Llama 3 社区许可证和可接受使用政策的前提下,对 Llama 3 模型进行微调以支持其他语言。
硬件和软件
- 训练因素:预训练使用了自定义训练库、Meta 的研究超级集群和生产集群。微调、标注和评估也在第三方云计算平台上进行。
- 碳足迹:预训练在 H100 - 80GB 类型的硬件上累计使用了 770 万个 GPU 小时的计算资源(TDP 为 700W)。估计总排放量为 2290 tCO2eq,其中 100% 由 Meta 的可持续发展计划进行了抵消。
模型 | 时间(GPU 小时) | 功耗(W) | 碳排放(tCO2eq) |
---|---|---|---|
Llama 3 8B | 130 万 | 700 | 390 |
Llama 3 70B | 640 万 | 700 | 1900 |
总计 | 770 万 | - | 2290 |
训练数据
- 概述:Llama 3 在超过 15 万亿个来自公开可用来源的标记数据上进行了预训练。微调数据包括公开可用的指令数据集以及超过 1000 万个手动标注的示例。预训练和微调数据集均不包含 Meta 用户数据。
- 数据新鲜度:7B 模型的预训练数据截止到 2023 年 3 月,70B 模型的预训练数据截止到 2023 年 12 月。
基准测试
在本节中,我们报告了 Llama 3 模型在标准自动基准测试中的结果。所有评估均使用我们的内部评估库进行。有关方法的详细信息,请参阅 此处。
基础预训练模型
类别 | 基准测试 | Llama 3 8B | Llama2 7B | Llama2 13B | Llama 3 70B | Llama2 70B |
---|---|---|---|---|---|---|
通用 | MMLU (5-shot) | 66.6 | 45.7 | 53.8 | 79.5 | 69.7 |
通用 | AGIEval English (3 - 5 shot) | 45.9 | 28.8 | 38.7 | 63.0 | 54.8 |
通用 | CommonSenseQA (7-shot) | 72.6 | 57.6 | 67.6 | 83.8 | 78.7 |
通用 | Winogrande (5-shot) | 76.1 | 73.3 | 75.4 | 83.1 | 81.8 |
通用 | BIG - Bench Hard (3-shot, CoT) | 61.1 | 38.1 | 47.0 | 81.3 | 65.7 |
通用 | ARC - Challenge (25-shot) | 78.6 | 53.7 | 67.6 | 93.0 | 85.3 |
知识推理 | TriviaQA - Wiki (5-shot) | 78.5 | 72.1 | 79.6 | 89.7 | 87.5 |
阅读理解 | SQuAD (1-shot) | 76.4 | 72.2 | 72.1 | 85.6 | 82.6 |
阅读理解 | QuAC (1-shot, F1) | 44.4 | 39.6 | 44.9 | 51.1 | 49.4 |
阅读理解 | BoolQ (0-shot) | 75.7 | 65.5 | 66.9 | 79.0 | 73.1 |
阅读理解 | DROP (3-shot, F1) | 58.4 | 37.9 | 49.8 | 79.7 | 70.2 |
指令微调模型
基准测试 | Llama 3 8B | Llama 2 7B | Llama 2 13B | Llama 3 70B | Llama 2 70B |
---|---|---|---|---|---|
MMLU (5-shot) | 68.4 | 34.1 | 47.8 | 82.0 | 52.9 |
GPQA (0-shot) | 34.2 | 21.7 | 22.3 | 39.5 | 21.0 |
HumanEval (0-shot) | 62.2 | 7.9 | 14.0 | 81.7 | 25.6 |
GSM - 8K (8-shot, CoT) | 79.6 | 25.7 | 77.4 | 93.0 | 57.5 |
MATH (4-shot, CoT) | 30.0 | 3.8 | 6.7 | 50.4 | 11.6 |
责任与安全
我们认为开放的人工智能方法能够带来更好、更安全的产品,加速创新,并扩大整体市场。我们致力于负责任的人工智能开发,采取了一系列措施来限制模型的滥用和危害,并支持开源社区。
基础模型是一种功能广泛的技术,旨在用于各种应用场景。由于不同应用的安全需求本质上存在差异,因此这些模型并非开箱即用就能满足所有开发者在所有用例中的安全偏好。
相反,负责任的大语言模型应用部署需要在应用开发的全过程中实施一系列安全最佳实践,从模型预训练、微调,到部署包含安全保障措施的系统,以满足特定用例和受众的安全需求。
作为 Llama 3 发布的一部分,我们更新了 负责任使用指南,概述了开发者为其应用实施模型和系统级安全的步骤和最佳实践。我们还提供了一系列资源,包括 Meta Llama Guard 2 和 Code Shield 安全保障工具。这些工具已被证明能够在保持高实用性的同时,显著降低大语言模型系统的残余风险。我们鼓励开发者根据自身需求调整和部署这些安全保障措施,并提供了一个 参考实现 供您参考。
Llama 3 - Instruct
正如负责任使用指南中所概述的,模型的实用性和对齐性之间可能存在一定的权衡。开发者应根据其特定用例和受众,谨慎权衡对齐性和实用性的益处。在使用 Llama 模型时,开发者应注意残余风险,并根据需要利用额外的安全工具,以达到其用例所需的安全标准。
安全性
对于我们的指令微调模型,我们进行了广泛的红队测试、对抗性评估,并实施了安全缓解技术,以降低残余风险。与任何大语言模型一样,残余风险可能仍然存在,我们建议开发者在其用例的背景下评估这些风险。同时,我们正在与社区合作,使人工智能安全基准标准更加透明、严格和可解释。
拒绝回答
除了残余风险,我们非常重视模型对良性提示的拒绝回答问题。过度拒绝不仅会影响用户体验,在某些情况下甚至可能有害。我们听取了开发者社区的反馈,并改进了微调过程,确保 Llama 3 比 Llama 2 更不可能错误地拒绝回答提示。
我们建立了内部基准,并开发了缓解措施来限制错误拒绝,使 Llama 3 成为我们迄今为止最实用的模型。
负责任的发布
除了上述负责任使用的考虑因素外,我们遵循了严格的流程,在做出发布决策之前,采取了额外的措施来防止滥用和应对关键风险。
滥用
如果您访问或使用 Llama 3,您同意遵守可接受使用政策。该政策的最新版本可在 https://llama.meta.com/llama3/use-policy/ 找到。
关键风险
-
CBRNE(化学、生物、放射、核和高当量爆炸物):我们对模型在这方面的安全性进行了双重评估:
- 在模型训练过程中进行迭代测试,评估与 CBRNE 威胁和其他对抗性风险相关的响应安全性。
- 邀请外部 CBRNE 专家进行提升测试,评估模型准确提供专家知识并减少潜在 CBRNE 滥用障碍的能力,参考标准为不使用模型时通过网络搜索所能达到的效果。
-
网络安全:我们使用 Meta 的网络安全评估套件 CyberSecEval 对 Llama 3 进行了评估,测量了 Llama 3 在作为编码助手时建议不安全代码的倾向,以及在执行网络攻击请求时的响应倾向(攻击定义基于行业标准 MITRE ATT&CK 网络攻击本体)。在不安全编码和网络攻击实用性测试中,Llama 3 的表现与 具有同等编码能力的模型 相当或更安全。
-
儿童安全:我们组建了专家团队进行儿童安全风险评估,以评估模型产生可能导致儿童安全风险输出的能力,并通过微调提供必要和适当的风险缓解建议。在 Llama 3 模型开发过程中,我们利用这些专家红队测试扩展了评估基准的覆盖范围。对于 Llama 3,我们采用基于目标的方法进行了新的深入测试,以评估模型在多个攻击向量下的风险。我们还与内容专家合作进行红队测试,评估潜在违规内容,同时考虑特定市场的细微差别和经验。
社区
生成式人工智能的安全需要专业知识和工具,我们相信开放社区的力量能够加速其发展。我们积极参与开放联盟,如人工智能联盟、人工智能合作组织和 MLCommons,为安全标准化和透明度做出贡献。我们鼓励社区采用 MLCommons 概念验证评估等分类法,以促进安全和内容评估的协作和透明度。我们的 Purple Llama 工具已开源,供社区使用,并广泛分发至包括云服务提供商在内的生态系统合作伙伴。我们鼓励社区为我们的 Github 仓库 做出贡献。
最后,我们建立了一系列资源,包括 输出报告机制 和 漏洞赏金计划,以在社区的帮助下不断改进 Llama 技术。
伦理考量和局限性
Llama 3 的核心价值观是开放性、包容性和实用性。它旨在为所有人服务,并适用于广泛的用例。因此,它的设计目标是让不同背景、经验和观点的人都能使用。Llama 3 以用户的实际情况和需求为出发点,不插入不必要的判断或规范性内容,同时认识到即使某些内容在某些情况下可能存在问题,但在其他情况下也可能具有重要价值。它尊重所有用户的尊严和自主权,特别是在推动创新和进步的自由思想和表达价值观方面。
然而,Llama 3 是一项新技术,与任何新技术一样,其使用存在一定风险。到目前为止的测试均以英语进行,无法涵盖所有可能的场景。因此,与所有大语言模型一样,Llama 3 的潜在输出无法提前预测,在某些情况下,模型可能会对用户提示产生不准确、有偏见或其他令人反感的响应。因此,在部署 Llama 3 模型的任何应用之前,开发者应针对其特定应用进行安全测试和调整。正如负责任使用指南中所建议的,我们推荐将 Purple Llama 解决方案纳入您的工作流程,特别是 Llama Guard,它提供了一个基础模型,用于过滤输入和输出提示,在模型级安全的基础上增加系统级安全保障。
请参阅 负责任使用指南 获取更多信息。
引用说明
@article{llama3modelcard,
title={Llama 3 Model Card},
author={AI@Meta},
year={2024},
url = {https://github.com/meta-llama/llama3/blob/main/MODEL_CARD.md}
}
贡献者
Aaditya Singh; Aaron Grattafiori; Abhimanyu Dubey; Abhinav Jauhri; Abhinav Pandey; Abhishek Kadian; Adam Kelsey; Adi Gangidi; Ahmad Al-Dahle; Ahuva Goldstand; Aiesha Letman; Ajay Menon; Akhil Mathur; Alan Schelten; Alex Vaughan; Amy Yang; Andrei Lupu; Andres Alvarado; Andrew Gallagher; Andrew Gu; Andrew Ho; Andrew Poulton; Andrew Ryan; Angela Fan; Ankit Ramchandani; Anthony Hartshorn; Archi Mitra; Archie Sravankumar; Artem Korenev; Arun Rao; Ashley Gabriel; Ashwin Bharambe; Assaf Eisenman; Aston Zhang; Aurelien Rodriguez; Austen Gregerson; Ava Spataru; Baptiste Roziere; Ben Maurer; Benjamin Leonhardi; Bernie Huang; Bhargavi Paranjape; Bing Liu; Binh Tang; Bobbie Chern; Brani Stojkovic; Brian Fuller; Catalina Mejia Arenas; Chao Zhou; Charlotte Caucheteux; Chaya Nayak; Ching-Hsiang Chu; Chloe Bi; Chris Cai; Chris Cox; Chris Marra; Chris McConnell; Christian Keller; Christoph Feichtenhofer; Christophe Touret; Chunyang Wu; Corinne Wong; Cristian Canton Ferrer; Damien Allonsius; Daniel Kreymer; Daniel Haziza; Daniel Li; Danielle Pintz; Danny Livshits; Danny Wyatt; David Adkins; David Esiobu; David Xu; Davide Testuggine; Delia David; Devi Parikh; Dhruv Choudhary; Dhruv Mahajan; Diana Liskovich; Diego Garcia-Olano; Diego Perino; Dieuwke Hupkes; Dingkang Wang; Dustin Holland; Egor Lakomkin; Elina Lobanova; Xiaoqing Ellen Tan; Emily Dinan; Eric Smith; Erik Brinkman; Esteban Arcaute; Filip Radenovic; Firat Ozgenel; Francesco Caggioni; Frank Seide; Frank Zhang; Gabriel Synnaeve; Gabriella Schwarz; Gabrielle Lee; Gada Badeer; Georgia Anderson; Graeme Nail; Gregoire Mialon; Guan Pang; Guillem Cucurell; Hailey Nguyen; Hannah Korevaar; Hannah Wang; Haroun Habeeb; Harrison Rudolph; Henry Aspegren; Hu Xu; Hugo Touvron; Iga Kozlowska; Igor Molybog; Igor Tufanov; Iliyan Zarov; Imanol Arrieta Ibarra; Irina-Elena Veliche; Isabel Kloumann; Ishan Misra; Ivan Evtimov; Jacob Xu; Jade Copet; Jake Weissman; Jan Geffert; Jana Vranes; Japhet Asher; Jason Park; Jay Mahadeokar; Jean-Baptiste Gaya; Jeet Shah; Jelmer van der Linde; Jennifer Chan; Jenny Hong; Jenya Lee; Jeremy Fu; Jeremy Teboul; Jianfeng Chi; Jianyu Huang; Jie Wang; Jiecao Yu; Joanna Bitton; Joe Spisak; Joelle Pineau; Jon Carvill; Jongsoo Park; Joseph Rocca; Joshua Johnstun; Junteng Jia; Kalyan Vasuden Alwala; Kam Hou U; Kate Plawiak; Kartikeya Upasani; Kaushik Veeraraghavan; Ke Li; Kenneth Heafield; Kevin Stone; Khalid El-Arini; Krithika Iyer; Kshitiz Malik; Kuenley Chiu; Kunal Bhalla; Kyle Huang; Lakshya Garg; Lauren Rantala-Yeary; Laurens van der Maaten; Lawrence Chen; Leandro Silva; Lee Bell; Lei Zhang; Liang Tan; Louis Martin; Lovish Madaan; Luca Wehrstedt; Lukas Blecher; Luke de Oliveira; Madeline Muzzi; Madian Khabsa; Manav Avlani; Mannat Singh; Manohar Paluri; Mark Zuckerberg; Marcin Kardas; Martynas Mankus; Mathew Oldham; Mathieu Rita; Matthew Lennie; Maya Pavlova; Meghan Keneally; Melanie Kambadur; Mihir Patel; Mikayel Samvelyan; Mike Clark; Mike Lewis; Min Si; Mitesh Kumar Singh; Mo Metanat; Mona Hassan; Naman Goyal; Narjes Torabi; Nicolas Usunier; Nikolay Bashlykov; Nikolay Bogoychev; Niladri Chatterji; Ning Dong; Oliver Aobo Yang; Olivier Duchenne; Onur Celebi; Parth Parekh; Patrick Alrassy; Paul Saab; Pavan Balaji; Pedro Rittner; Pengchuan Zhang; Pengwei Li; Petar Vasic; Peter Weng; Polina Zvyagina; Prajjwal Bhargava; Pratik Dubal; Praveen Krishnan; Punit Singh Koura; Qing He; Rachel Rodriguez; Ragavan Srinivasan; Rahul Mitra; Ramon Calderer; Raymond Li; Robert Stojnic; Roberta Raileanu; Robin Battey; Rocky Wang; Rohit Girdhar; Rohit Patel; Romain Sauvestre; Ronnie Polidoro; Roshan Sumbaly; Ross Taylor; Ruan Silva; Rui Hou; Rui Wang; Russ Howes; Ruty Rinott; Saghar Hosseini; Sai Jayesh Bondu; Samyak Datta; Sanjay Singh; Sara Chugh; Sargun Dhillon; Satadru Pan; Sean Bell; Sergey Edunov; Shaoliang Nie; Sharan Narang; Sharath Raparthy; Shaun Lindsay; Sheng Feng; Sheng Shen; Shenghao Lin; Shiva Shankar; Shruti Bhosale; Shun Zhang; Simon Vandenhende; Sinong Wang; Seohyun Sonia Kim; Soumya Batra; Sten Sootla; Steve Kehoe; Suchin Gururangan; Sumit Gupta; Sunny Virk; Sydney Borodinsky; Tamar Glaser; Tamar Herman; Tamara Best; Tara Fowler; Thomas Georgiou; Thomas Scialom; Tianhe Li; Todor Mihaylov; Tong Xiao; Ujjwal Karn; Vedanuj Goswami; Vibhor Gupta; Vignesh Ramanathan; Viktor Kerkez; Vinay Satish Kumar; Vincent Gonguet; Vish Vogeti; Vlad Poenaru; Vlad Tiberiu Mihailescu; Vladan Petrovic; Vladimir Ivanov; Wei Li; Weiwei Chu; Wenhan Xiong; Wenyin Fu; Wes Bouaziz; Whitney Meers; Will Constable; Xavier Martinet; Xiaojian Wu; Xinbo Gao; Xinfeng Xie; Xuchao Jia; Yaelle Goldschlag; Yann LeCun; Yashesh Gaur; Yasmine Babaei; Ye Qi; Yenda Li; Yi Wen; Yiwen Song; Youngjin Nam; Yuchen Hao; Yuchen Zhang; Yun Wang; Yuning Mao; Yuzi He; Zacharie Delpierre Coudert; Zachary DeVito; Zahra Hankir; Zhaoduo Wen; Zheng Yan; Zhengxing Chen; Zhenyu Yang; Zoe Papakipos
🔧 技术细节
文档未提供具体技术细节,可参考相关代码仓库和研究论文获取更多信息。
📄 许可证
可在 https://llama.meta.com/llama3/license 获取自定义商业许可证。
Meta Llama 3 社区许可协议
请参考文档开头的详细协议内容。
Meta Llama 3 可接受使用政策
Meta 致力于促进其工具和功能(包括 Meta Llama 3)的安全和公平使用。如果您访问或使用 Meta Llama 3,即表示您同意本可接受使用政策(“政策”)。该政策的最新版本可在 https://llama.meta.com/llama3/use-policy 找到。
禁止使用情况
我们希望每个人都能安全、负责地使用 Meta Llama 3。您同意不会使用或允许他人使用 Meta Llama 3 进行以下行为:
- 违反法律或他人权利,包括:
- 参与、促进、生成、促成、鼓励、策划、煽动或进一步推动非法或违法活动或内容,例如:
- 暴力或恐怖主义
- 对儿童的剥削或伤害,包括招揽、创建、获取或传播儿童剥削内容,或未能报告儿童性虐待材料
- 人口贩运、剥削和性暴力
- 向未成年人非法分发信息或材料,包括淫秽材料,或未能对相关信息或材料实施法律要求的年龄限制
- 性招揽
- 任何其他犯罪活动
- 参与、促进、煽动或便利对个人或群体的骚扰、虐待、威胁或欺凌
- 参与、促进、煽动或便利在就业、就业福利、信贷、住房、其他经济福利或其他基本商品和服务提供方面的歧视或其他非法或有害行为
- 从事未经授权或无执照的专业实践,包括但不限于金融、法律、医疗/健康或相关专业实践
- 在未获得适用法律要求的权利和同意的情况下,收集、处理、披露、生成或推断个人的健康、人口统计或其他敏感个人或私人信息
- 参与或便利任何侵犯、盗用或以其他方式侵犯任何第三方权利的行为,或生成任何此类内容,包括使用 Llama 材料的任何产品或服务的输出或结果
- 创建、生成或便利创建恶意代码、恶意软件、计算机病毒,或进行任何可能禁用、使负担过重、干扰或损害网站或计算机系统正常运行、完整性、操作或外观的行为
- 参与、促进、生成、促成、鼓励、策划、煽动或进一步推动非法或违法活动或内容,例如:
- 参与、促进、煽动、便利或协助策划或开展可能对个人造成死亡或身体伤害风险的活动,包括使用 Meta Llama 3 进行以下相关活动:
- 军事、战争、核工业或应用、间谍活动,或用于受美国国务院《国际武器贸易条例》(ITAR)管制的材料或活动
- 枪支和非法武器(包括武器开发)
- 非法药物和受管制/受控物质
- 关键基础设施、运输技术或重型机械的操作
- 自我伤害或伤害他人,包括自杀、自残和饮食失调
- 任何旨在煽动或促进暴力、虐待或对个人造成身体伤害的内容
- 故意欺骗或误导他人,包括使用 Meta Llama 3 进行以下相关活动:
- 生成、促进或进一步推动欺诈或虚假信息的创建或传播
- 生成、促进或进一步推动诽谤性内容,包括创建诽谤性声明、图像或其他内容
- 生成、促进或进一步分发垃圾邮件
- 在未获得同意、授权或合法权利的情况下冒充他人
- 声称使用 Meta Llama 3 或其输出是人类生成的
- 生成或促进虚假的在线互动,包括虚假评论和其他虚假在线互动方式
- 未能向最终用户适当披露您的人工智能系统的任何已知危险
如发现违反本政策、软件“漏洞”或其他可能导致违反本政策的问题,请通过以下方式之一进行报告:
- 报告模型问题:https://github.com/meta-llama/llama3
- 报告模型生成的风险内容:developers.facebook.com/llama_output_feedback
- 报告漏洞和安全问题:facebook.com/whitehat/info
- 报告违反可接受使用政策或未经授权使用 Meta Llama 3 的情况:LlamaUseReport@meta.com
引用说明
@article{llama3modelcard,
title={Llama 3 Model Card},
author={AI@Meta},
year={2024},
url = {https://github.com/meta-llama/llama3/blob/main/MODEL_CARD.md}
}
贡献者
文档中列出了众多贡献者的姓名,具体请参考上述详细内容。
注意事项
⚠️ 重要提示
Llama 3 是一项新技术,其潜在输出无法提前预测,在某些情况下可能会产生不准确、有偏见或其他令人反感的响应。因此,在部署 Llama 3 模型的任何应用之前,开发者应针对其特定应用进行安全测试和调整。
💡 使用建议
建议开发者将 Purple Llama 解决方案纳入工作流程,特别是 Llama Guard,以提供系统级安全保障。同时,请遵循 负责任使用指南 进行模型的使用和部署。



