库名称:transformers
支持语言:
- 阿拉伯语
- 德语
- 英语
- 西班牙语
- 法语
- 印地语
- 印尼语
- 意大利语
- 葡萄牙语
- 泰语
- 菲律宾语
- 越南语
基础模型:
- meta-llama/Llama-4-Maverick-17B-128E
标签:
- facebook
- meta
- pytorch
- llama
- llama4
许可证:其他
许可证名称:llama4
模型信息
基于Llama构建
Llama 4系列模型是原生多模态AI模型,支持文本和多模态体验。这些模型采用混合专家架构(MoE),在文本和图像理解方面提供行业领先的性能。
Llama 4模型标志着Llama生态系统新时代的开始。我们发布了Llama 4系列中的两款高效模型:
- Llama 4 Scout:170亿参数,16位专家
- Llama 4 Maverick:170亿参数,128位专家
模型开发者:Meta
架构:Llama 4模型是自回归语言模型,采用混合专家架构(MoE),并通过早期融合实现原生多模态支持。
模型名称 |
训练数据来源 |
参数量(激活/总计) |
输入模态 |
输出模态 |
上下文长度 |
训练token量 |
知识截止日期 |
Llama 4 Scout |
公开数据、授权数据及Meta产品服务数据(含Instagram/Facebook公开帖子及用户与Meta AI的交互) |
17B/109B |
多语言文本与图像 |
多语言文本与代码 |
10M |
~40T |
2024年8月 |
Llama 4 Maverick |
同上 |
17B/400B |
多语言文本与图像 |
多语言文本与代码 |
1M |
~22T |
2024年8月 |
支持语言:阿拉伯语、英语、法语、德语、印地语、印尼语、意大利语、葡萄牙语、西班牙语、菲律宾语、泰语、越南语。
发布日期:2025年4月5日
状态:此为基于离线数据训练的静态模型。未来可能根据社区反馈发布优化版本。
许可证:自定义商业许可《Llama 4社区许可协议》,详见:许可证链接
反馈渠道:技术问题请参阅Llama README,应用开发指南见Llama食谱。
使用场景
适用场景:
- 商业与研究用途(多语言支持)
- 指令调优模型适用于聊天助手和视觉推理任务
- 预训练模型可用于自然语言生成
- 视觉优化:图像识别、推理、描述及问答
- 支持模型输出改进其他模型(如合成数据生成与蒸馏)
非适用场景:
- 违反法律法规或《可接受使用政策》的行为
- 超出本卡片明确支持的12种语言或能力范围的应用
注意事项:
- 预训练涵盖200种语言,开发者可对额外语言微调(需遵守许可协议和安全规范)。
- 图像理解测试上限为5张输入图像,超限使用需开发者自行风险评估。
使用教程
需安装transformers v4.51.0
或更高版本:
from transformers import AutoProcessor, Llama4ForConditionalGeneration
import torch
model_id = "meta-llama/Llama-4-Maverick-17B-128E-Instruct"
processor = AutoProcessor.from_pretrained(model_id)
model = Llama4ForConditionalGeneration.from_pretrained(
model_id,
attn_implementation="flex_attention",
device_map="auto",
torch_dtype=torch.bfloat16,
)
url1 = "https://example.com/rabbit.jpg"
url2 = "https://example.com/cat_layout.png"
messages = [{
"role": "user",
"content": [
{"type": "image", "url": url1},
{"type": "image", "url": url2},
{"type": "text", "text": "请描述这两张图像的异同点?"},
]
}]
inputs = processor.apply_chat_template(messages, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=256)
print(processor.decode(outputs[0]))
硬件与能耗
训练资源:
- 使用Meta定制GPU集群及生产基础设施
- 总训练能耗:738万GPU小时(H100-80GB,单卡功耗700W)
碳排放:
- 基于位置的训练碳排放:1,999吨CO2当量
- Meta自2020年起实现全球运营净零排放,市场基准碳排放为0吨
模型名称 |
GPU小时 |
单卡功耗(W) |
位置碳排放(吨) |
市场碳排放(吨) |
Llama 4 Scout |
500万 |
700 |
1,354 |
0 |
Llama 4 Maverick |
238万 |
700 |
645 |
0 |
能耗计算方法学
训练数据
数据构成:
- 公开数据、授权数据及Meta产品数据(含社交媒体交互内容)
- Scout训练token量:约40万亿
- Maverick训练token量:约22万亿
- 数据截止日期:2024年8月
性能基准
预训练模型表现
类别 |
基准测试 |
结果对比(Scout/Maverick) |
推理与知识 |
MMLU |
79.6/85.5 |
数学能力 |
MATH |
50.3/61.2 |
代码生成 |
MBPP |
67.8/77.6 |
多语言理解 |
TydiQA |
31.5/31.7 |
图像理解 |
DocVQA |
89.4/91.6 |
指令调优模型表现
类别 |
基准测试 |
Scout/Maverick |
图像推理 |
MMMU |
69.4/73.4 |
数学视觉 |
MathVista |
70.7/73.7 |
长文本翻译 |
MTOB(整书) |
39.7/50.8 |
量化支持
- Scout:支持BF16权重及运行时int4量化
- Maverick:提供BF16和FP8量化版本(FP8量化后单台H100 DGX可部署)
安全措施
三层防护策略:
- 模型级调优:通过人工标注与合成数据降低安全风险,优化拒绝响应语气
- 系统级防护:集成Llama Guard等工具过滤输入/输出
- 社区协作:开放漏洞报告与漏洞赏金计划
关键风险管控:
- 生化武器防范:专家评估模型是否可能被用于攻击计划
- 儿童安全:扩展多语言/多图像场景的儿童安全评估
- 网络安全:验证模型是否可能自动化网络攻击(评估显示无重大风险)
社区生态
限制声明
Llama 4作为新技术存在不可预测的输出风险。开发者需根据具体应用场景进行安全测试与调优,并参考: