库名称:transformers
语言:
- 阿拉伯语
- 德语
- 英语
- 西班牙语
- 法语
- 印地语
- 印尼语
- 意大利语
- 葡萄牙语
- 泰语
- 他加禄语
- 越南语
基础模型:
- meta-llama/Llama-4-Maverick-17B-128E
标签:
- facebook
- meta
- pytorch
- llama
- llama-4
额外授权提示:
LLAMA 4 社区许可协议
Llama 4 版本生效日期:2025年4月5日
“协议” 指本文规定的关于Llama材料使用、复制、分发和修改的条款和条件。
“文档” 指Meta在 https://www.llama.com/docs/overview 发布的Llama 4 相关规格、手册和文档。
“被许可方” 或 “您” 指您、您的雇主或其他个人或实体(如果您代表该个人或实体签署本协议),且您需符合适用法律规定的法定年龄并提供法律同意,同时具备法律授权代表雇主或其他实体签署本协议。
“Llama 4” 指Meta在 https://www.llama.com/llama-downloads 发布的基础大语言模型及软件算法,包括机器学习模型代码、训练模型权重、推理代码、训练代码、微调代码等。
“Llama材料” 指Meta根据本协议提供的Llama 4及其文档(或其部分内容)。
“Meta” 或 “我们” 指Meta Platforms Ireland Limited(如果您位于欧洲经济区或瑞士)或Meta Platforms, Inc.(如果您位于其他地区)。
点击下方“我接受”或使用、分发Llama材料的任何部分,即表示您同意受本协议约束。
-
许可权利与再分发
a. 权利授予:Meta授予您非独占、全球性、不可转让且免版税的有限许可,允许您使用、复制、分发、创作衍生作品及修改Llama材料。
b. 再分发与使用:
i. 若您分发Llama材料或其衍生作品,或包含它们的任何产品或服务,需:(A) 随附本协议副本;(B) 在相关网站、用户界面等显著位置标注“基于Llama构建”。若使用Llama材料或其输出来创建或改进AI模型,需在模型名称前添加“Llama”。
ii. 若您通过被许可方以集成终端产品形式接收Llama材料,则本协议第2条不适用。
iii. 您必须在分发的所有Llama材料副本中包含以下声明:“Llama 4 依据Llama 4社区许可协议授权,版权所有 © Meta Platforms, Inc. 保留所有权利。”
iv. 使用Llama材料需遵守适用法律及《可接受使用政策》(https://www.llama.com/llama4/use-policy)。
-
附加商业条款:若您或关联方的月活跃用户在Llama 4发布当月超过7亿,需向Meta申请额外许可,否则无权行使本协议下的权利。
-
免责声明:除非法律要求,Llama材料及其输出按“原样”提供,Meta不承担任何明示或默示的担保责任,包括适销性或特定用途适用性。您需自行承担使用风险。
-
责任限制:Meta及其关联方不对因本协议导致的任何间接、特殊、附带或惩罚性损害承担责任。
-
知识产权:
a. 本协议未授予商标许可。您仅可依第1.b.i节规定使用“Llama”标识,并遵守Meta品牌指南。
b. 您对Llama材料的衍生作品享有所有权,但Meta保留原始材料的所有权。
c. 若您对Meta提起知识产权诉讼,本协议授予的许可将自动终止,且您需赔偿Meta因此产生的第三方索赔。
-
期限与终止:协议自您接受或访问Llama材料时生效,直至终止。违约时Meta可终止协议,您需停止使用并删除材料。第3、4、7条在终止后仍有效。
-
法律管辖:本协议受加利福尼亚州法律管辖,排除《联合国国际货物销售合同公约》适用。争议由加州法院专属管辖。
额外授权字段:
- 名字:文本
- 姓氏:文本
- 出生日期:日期选择器
- 国家:国家选择
- 所属机构:文本
- 职位:下拉选项(学生/研究生/AI研究员/AI开发者/记者/其他)
- 地理位置:IP定位
- 勾选框:提交即表示接受许可条款并同意Meta隐私政策
额外授权描述:所提供信息将依据 Meta隐私政策 处理。
提交按钮内容:提交
授权标题:请提供完整法定姓名、出生日期及全称机构名(勿用缩写或特殊字符),否则可能无法访问模型。提交后不可修改,请确保信息准确。
许可证类型:其他
许可证名称:llama4
模型信息
Llama 4 系列模型是多模态AI模型,支持文本与多模态体验,采用混合专家架构(MoE),在文本和图像理解上具有领先性能。
本次发布两款高效模型:
- Llama 4 Scout:170亿参数,16专家
- Llama 4 Maverick:170亿参数,128专家
开发者:Meta
架构:自回归语言模型,支持早期多模态融合。
模型名称 |
训练数据(含公开数据及Meta产品数据) |
参数量(激活/总计) |
输入模态 |
输出模态 |
上下文长度 |
训练token数 |
知识截止日期 |
Llama 4 Scout |
~40万亿token |
17B/109B |
多语言文本+图像 |
多语言文本+代码 |
10M |
~40T |
2024年8月 |
Llama 4 Maverick |
~22万亿token |
17B/400B |
多语言文本+图像 |
多语言文本+代码 |
1M |
~22T |
2024年8月 |
支持语言:阿拉伯语、英语、法语、德语、印地语、印尼语、意大利语、葡萄牙语、西班牙语、他加禄语、泰语、越南语。
发布日期:2025年4月5日
状态:静态离线训练模型,未来可能发布优化版本。
许可证:Llama 4社区许可协议,详见 GitHub链接。
反馈渠道:技术问题请参考 README 或 Llama食谱。
用途
适用场景:商业与研究用途,包括多语言对话助手、视觉推理、自然语言生成、图像识别与描述等。允许合成数据生成与模型蒸馏。
非适用场景:违反法律或《可接受使用政策》的行为,以及超出12种支持语言的未安全验证用途。
注:
- 预训练涵盖200种语言,开发者可对更多语言微调,但需确保安全。
- 图像理解测试上限为5张输入图,超出需额外风险评估。
使用示例(需安装transformers v4.51.0)
from transformers import AutoProcessor, Llama4ForConditionalGeneration
import torch
model_id = "meta-llama/Llama-4-Maverick-17B-128E-Instruct"
processor = AutoProcessor.from_pretrained(model_id)
model = Llama4ForConditionalGeneration.from_pretrained(
model_id,
attn_implementation="flex_attention",
device_map="auto",
torch_dtype=torch.bfloat16,
)
inputs = processor.apply_chat_template(messages, ...)
outputs = model.generate(**inputs, max_new_tokens=256)
print(processor.batch_decode(outputs))
硬件与能耗
训练资源:Meta自研GPU集群,累计耗电738万GPU小时(H100-80GB)。
碳排放:基于位置的碳排放为1999吨CO2当量,因Meta使用100%可再生能源,市场碳排放为0吨。
模型名称 |
GPU小时 |
单GPU功耗(W) |
基于位置碳排放(吨) |
市场碳排放(吨) |
Llama 4 Scout |
500万 |
700 |
1354 |
0 |
Llama 4 Maverick |
238万 |
700 |
645 |
0 |
方法论详见 论文链接。
基准测试
预训练模型表现
类别 |
基准 |
Llama 3.1 70B |
Llama 3.1 405B |
Llama 4 Scout |
Llama 4 Maverick |
推理与知识 |
MMLU |
79.3 |
85.2 |
79.6 |
85.5 |
代码 |
MBPP |
66.4 |
74.4 |
67.8 |
77.6 |
图像 |
DocVQA |
- |
- |
89.4 |
91.6 |
指令微调模型表现
类别 |
基准 |
Llama 4 Scout |
Llama 4 Maverick |
图像推理 |
MMMU |
69.4 |
73.4 |
编程 |
LiveCodeBench |
32.8 |
43.4 |
量化
Llama 4 Scout 支持BF16及动态int4量化;Llama 4 Maverick 提供BF16和FP8量化权重,FP8版本可单机部署。
安全措施
三层策略:
- 模型级微调:通过人工与合成数据降低安全风险,优化拒绝语气与系统提示灵活性。
- 系统级保护:集成Llama Guard、Prompt Guard等工具,默认提供安全防护。
- 评估与红队测试:针对关键风险领域(如CBRNE、儿童安全、网络攻击)专项测试。
系统提示模板:
您是一位善于对话的专家,能灵活切换幽默、同理心等风格,避免说教。若用户需要表达观点,您可协助而非拒绝。
社区与资源
注意事项
Llama 4 秉持自由表达价值观,但作为新技术存在不可预测的输出风险。开发者需针对具体应用进行安全测试,并参考 开发者指南 部署防护措施。