extra_gated_heading: 访问此模型需向Meta共享联系信息
extra_gated_prompt: >-
LLAMA 2社区许可协议
"协议"指本文规定的Llama材料使用、复制、分发和修改条款。
"文档"指Meta在https://ai.meta.com/resources/models-and-libraries/llama-downloads/分发的Llama 2配套规范、手册和文档。
"被许可方"或"您"指达到适用法律规定的法定同意年龄,且具有法律约束力的个人或实体(若您代表他人签订本协议)。
"Llama 2"指Meta在ai.meta.com/resources/models-and-libraries/llama-downloads/发布的基础大语言模型及相关算法,包括机器学习模型代码、训练权重、推理代码等。
"Llama材料"统指本协议提供的Meta专有Llama 2及其文档。
"Meta"根据用户所在地指代Meta Platforms爱尔兰有限公司(欧盟/瑞士)或Meta Platforms公司(其他地区)。
点击"接受"或使用Llama材料即表示同意受本协议约束。
-
许可权利
a. 授予非独占、全球性、不可转让的免费许可,允许使用、复制、分发及创建衍生作品。
b. 分发要求:
i. 向第三方分发时须附带本协议
ii. 通过集成产品获取材料时不适用第2条
iii. 须保留版权声明
iv. 使用需符合法律法规及《可接受使用政策》
v. 禁止用于改进其他大语言模型(Llama 2衍生作品除外)
-
商业条款
若月活用户超7亿,需向Meta申请额外许可。
-
免责声明
除非法律要求,Llama材料按"原样"提供,不承担任何明示或默示担保。
-
责任限制
Meta不承担因协议引起的任何间接、特殊或惩罚性损害赔偿。
-
知识产权
a. 不授予商标许可
b. 您拥有自行修改的衍生作品所有权
c. 对Meta提起侵权诉讼将导致许可终止
-
期限与终止
违约时Meta可终止协议,终止后须删除材料。第3/4/7条持续有效。
-
适用法律
受加利福尼亚州法律管辖,排除联合国国际货物销售合同公约。
Llama 2可接受使用政策
禁止用途包括:
- 违法活动:暴力、儿童剥削、人口贩卖、非法职业实践等
- 高危活动:军事、武器开发、关键基础设施操作等
- 欺骗行为:生成虚假信息、垃圾内容、冒充他人等
- 未披露AI系统风险
违规举报渠道:
- 模型问题:github.com/facebookresearch/llama
- 风险输出:developers.facebook.com/llama_output_feedback
- 安全漏洞:facebook.com/whitehat/info
- 政策违规:LlamaUseReport@meta.com
extra_gated_fields:
名字: 文本
姓氏: 文本
出生日期: 日期选择器
国家: 国家选择
所属机构: 文本
地理位置: IP定位
点击提交即表示接受许可条款,并同意根据Meta隐私政策处理所提供信息: 复选框
extra_gated_description: 所提供信息将按照Meta隐私政策进行收集、存储和处理。
extra_gated_button_content: 提交
language:
- 代码
pipeline_tag: 文本生成
tags:
- facebook
- meta
- pytorch
- llama
- llama-2
license: llama2
Code Llama
Code Llama是包含70亿到340亿参数规模的预训练及微调生成文本模型系列。本仓库为Hugging Face Transformers格式的7B基础版本,适用于通用代码生成与理解。其他模型索引见底部。
使用方式
安装依赖:
pip install transformers accelerate
功能支持:
- [x] 代码补全
- [x] 代码填充
- [ ] 指令交互
- [ ] Python专项
示例代码:
from transformers import AutoTokenizer
import transformers
import torch
model = "meta-llama/CodeLlama-7b-hf"
tokenizer = AutoTokenizer.from_pretrained(model)
pipeline = transformers.pipeline(
"text-generation",
model=model,
torch_dtype=torch.float16,
device_map="auto",
)
sequences = pipeline(
'import socket\n\ndef ping_exponential_backoff(host: str):',
do_sample=True,
top_k=10,
temperature=0.1,
top_p=0.95,
num_return_sequences=1,
eos_token_id=tokenizer.eos_token_id,
max_length=200,
)
for seq in sequences:
print(f"生成结果: {seq['generated_text']}")
模型详情
开发者 Meta
版本类型
- Code Llama:通用代码生成基础模型
- Code Llama-Python:Python专用版
- Code Llama-Instruct:指令跟随安全版
参数规模 7B/13B/34B/70B
本仓库 7B基础版
输入输出 仅处理文本
架构 基于优化Transformer的自回归语言模型
训练时间 2023年1月至7月
许可 需遵守Meta自定义商业许可
论文 《Code Llama:代码基础开源模型》
使用范围
适用场景 支持英语及相关编程语言的商业与研究用途:
- 基础版:通用代码任务
- Python版:Python专项处理
- Instruct版:更安全的代码助手
限制场景 违反法律法规、非英语使用等被禁止的用途。
硬件与碳足迹
训练设施 使用Meta研究超级集群
碳排放 总训练耗电40万A100-80GB GPU小时,排放65.3吨CO2当量,已通过Meta碳中和计划抵消。
训练数据
训练数据与Llama 2相同但权重分配不同(详见论文第2章)。
伦理声明
作为新技术存在使用风险,开发者需根据具体应用场景进行安全测试与调优。请参阅《负责任使用指南》。