库名称: transformers
语言支持:
- 阿拉伯语
- 德语
- 英语
- 西班牙语
- 法语
- 印地语
- 印尼语
- 意大利语
- 葡萄牙语
- 泰语
- 他加禄语
- 越南语
基础模型:
- meta-llama/Llama-4-Scout-17B-16E
标签:
- facebook
- meta
- pytorch
- llama
- llama-4
授权协议提示: "LLAMA 4社区许可协议\nLlama 4版本生效日期:2025年4月5日\n"协议"指本文规定的Llama材料使用、复制、分发和修改的条款与条件。\n"文档"指Meta在https://www.llama.com/docs/overview发布的Llama 4配套规格说明书、手册和文档。\n"被许可方"或"您"指达到适用法律规定的法定年龄、具有法律行为能力,并代表自身或雇主/实体接受本协议的个人或组织。\n"Llama 4"指Meta在https://www.llama.com/llama-downloads发布的基础大语言模型及配套软件算法,包括机器学习模型代码、训练权重、推理代码、训练代码、微调代码等组件。\n"Llama材料"统指本协议下提供的Meta专有Llama 4及文档(或其部分内容)。\n"Meta"或"我们"指Meta Platforms爱尔兰有限公司(适用于欧洲经济区或瑞士用户)或Meta Platforms公司(其他地区用户)。\n点击下方"我接受"或使用/分发Llama材料即表示您同意受本协议约束。\n1. 许可权利与再分发\na. 权利授予。Meta授予您全球性、不可转让、免版税的有限许可,允许使用、复制、分发Llama材料及创建其衍生作品。\nb. 再分发要求:\ni. 若分发Llama材料或其衍生作品,或包含该材料的AI产品/服务,必须:(A)随附本协议副本;(B)在相关界面显著标注"基于Llama构建"。若使用Llama材料输出训练新AI模型,该模型名称须以"Llama"开头。\nii. 若通过被许可方获取Llama材料作为终端产品组件,则协议第2条不适用。\niii. 所有分发的Llama材料副本须包含声明文件:"Llama 4采用Llama 4社区许可协议,版权所有© Meta Platforms公司"\niv. 使用行为须遵守适用法律及Llama材料可接受使用政策(https://www.llama.com/llama4/use-policy)\n2. 商业条款。若被许可方产品月活用户超7亿,须向Meta申请商业许可。\n3. 免责声明。除非法律强制要求,Llama材料按"原样"提供,Meta不承担任何明示或默示担保。\n4. 责任限制。Meta不对因本协议产生的间接、特殊、附带或惩罚性损害承担责任。\n5. 知识产权:\na. 仅允许为满足1.b.i条款使用"Llama"商标,须遵守Meta品牌指南。\nb. 您对自创的衍生作品享有所有权。\nc. 若对Meta提起知识产权诉讼,本协议授予的许可自动终止。\n6. 期限与终止。违约时Meta可终止协议,终止后您须停止使用Llama材料。\n7. 管辖法律。本协议受加州法律管辖,排除《联合国国际货物销售合同公约》适用。"
授权信息收集字段:
名: 文本
姓: 文本
出生日期: 日期选择
国家: 国家选择
所属机构: 文本
职位:
type: 下拉选择
options:
- 学生
- 研究生
- AI研究员
- AI开发/工程师
- 记者
- 其他
地理位置: IP定位
? 点击提交即表示接受许可条款,并同意根据Meta隐私政策处理所提供信息
: 复选框
授权说明: 所提供信息将按Meta隐私政策处理。
授权按钮: 提交
授权标题: 请提供完整法定姓名、出生日期及含公司标识的全称机构名。避免使用缩写和特殊字符,否则可能影响模型访问权限。提交后不可修改,请确保信息准确。
许可证类型: 其他
许可证名称: llama4
meta-llama/Llama-4-Scout-17B-16E-Instruct (量化版)
描述
本模型是原始模型meta-llama/Llama-4-Scout-17B-16E-Instruct
的量化版本。
量化细节
📄 原始模型信息
模型概况
Llama 4系列模型是原生多模态AI模型,支持文本与多模态交互。采用混合专家架构(MoE),在文本和图像理解领域具有领先性能。
本次发布的Llama 4系列包含两个高效模型:16专家的170亿参数模型Llama 4 Scout,以及128专家的170亿参数模型Llama 4 Maverick。
开发方: Meta
架构特点: 采用自回归语言模型架构,整合MoE设计和早期多模态融合技术。
模型名称 |
训练数据量 |
参数量 |
输入模态 |
输出模态 |
上下文长度 |
训练token数 |
知识截止 |
Llama 4 Scout |
~40万亿token |
170亿(激活)/1090亿(总) |
多语言文本+图像 |
多语言文本+代码 |
10M |
~40T |
2024年8月 |
Llama 4 Maverick |
~22万亿token |
170亿(激活)/4000亿(总) |
多语言文本+图像 |
多语言文本+代码 |
1M |
~22T |
2024年8月 |
支持语言: 阿拉伯语、英语、法语、德语、印地语、印尼语、意大利语、葡萄牙语、西班牙语、他加禄语、泰语和越南语。
发布日期: 2025年4月5日
许可协议: 定制商业许可Llama 4社区协议,详见GitHub链接
使用方式
确保安装transformers v4.51.0或更高版本:
from transformers import AutoProcessor, Llama4ForConditionalGeneration
import torch
model_id = "meta-llama/Llama-4-Scout-17B-16E-Instruct"
processor = AutoProcessor.from_pretrained(model_id)
model = Llama4ForConditionalGeneration.from_pretrained(
model_id,
attn_implementation="flex_attention",
device_map="auto",
torch_dtype=torch.bfloat16
)
messages = [{
"role": "user",
"content": [
{"type": "image", "url": "图片URL1"},
{"type": "image", "url": "图片URL2"},
{"type": "text", "text": "比较这两张图像的异同"}
]
}]
inputs = processor.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=256)
print(processor.decode(outputs[0]))
性能基准
预训练模型表现
类别 |
基准测试 |
Llama 3.1 70B |
Llama 3.1 405B |
Llama 4 Scout |
Llama 4 Maverick |
推理知识 |
MMLU |
79.3 |
85.2 |
79.6 |
85.5 |
代码 |
MBPP |
66.4 |
74.4 |
67.8 |
77.6 |
图像 |
DocVQA |
- |
- |
89.4 |
91.6 |
指令微调模型表现
类别 |
基准测试 |
Llama 3.3 70B |
Llama 4 Scout |
Llama 4 Maverick |
图像推理 |
MMMU |
- |
69.4 |
73.4 |
编程 |
LiveCodeBench |
33.3 |
32.8 |
43.4 |
长文本 |
书籍翻译(chrF) |
- |
42.2/36.6 |
54.0/46.4 |
安全措施
采用三重防护策略:
- 模型级调优:通过人工标注与合成数据结合降低安全风险,优化拒绝响应语气
- 系统级防护:提供Llama Guard、Prompt Guard等配套安全工具
- 红队测试:联合网络安全、对抗机器学习专家进行风险评估
重点关注三大风险领域:
- CBRNE(生化核爆武器)信息管控
- 儿童安全内容过滤
- 网络攻击能力抑制
注意事项
Llama 4作为新技术存在潜在风险:
- 可能产生不准确或不适当输出
- 支持200种语言的预训练,但仅12种语言经过全面测试
- 图像理解测试上限为5张输入图像
开发者应:
我们通过影响资助计划和漏洞赏金计划鼓励社区共建安全生态。