extra_gated_heading: 访问此模型需向Meta提交联系信息
extra_gated_prompt: >-
LLAMA 2社区许可协议
"协议"指本文规定的Llama材料使用、复制、分发和修改条款。
"文档"指Meta在https://ai.meta.com/resources/models-and-libraries/llama-downloads/发布的Llama 2配套规范、手册及文档。
"被许可方"或"您"指达到适用法律规定的法定同意年龄,且具有法律约束力的个人或实体(若您代表雇主或其他主体签署本协议)。
"Llama 2"指Meta发布的基础大语言模型及相关软件算法,包括机器学习模型代码、训练权重、推理代码、训练代码、微调代码等组件。
"Llama材料"指Meta根据本协议提供的Llama 2专有模型及文档。
"Meta"指Meta Platforms爱尔兰有限公司(适用于欧盟/瑞士用户)或Meta Platforms公司(其他地区用户)。
点击"接受"或使用/分发Llama材料即表示同意受本协议约束。
- 许可权利
a. 授予非独占、全球性、不可转让的免费许可,允许使用、复制、分发及创建Llama材料衍生作品。
b. 分发要求:
i. 向第三方分发时须附带本协议
ii. 终端产品使用者不适用第2条
iii. 须保留版权声明
iv. 使用需符合法律法规及《可接受使用政策》
v. 禁止用于改进其他大语言模型(Llama 2衍生作品除外)
-
商业条款
若月活用户超7亿,需向Meta申请商业许可。
-
免责声明
除非法律要求,Llama材料按"原样"提供,不承担任何明示或默示担保。
-
责任限制
Meta不承担因协议引起的任何间接、特殊或惩罚性损害赔偿。
-
知识产权
a. 不授予商标使用权
b. 衍生作品所有权归修改者所有
c. 提起侵权诉讼将终止许可
-
协议期限
违约时Meta可终止协议,终止后须停止使用Llama材料。
-
法律适用
受加利福尼亚州法律管辖,排除《联合国国际货物销售合同公约》适用。
Llama 2可接受使用政策
禁止用途包括:
- 违法活动:暴力、儿童剥削、人口贩卖、向未成年人分发不当内容等
- 高危行为:军事应用、非法武器开发、关键基础设施操作等
- 欺骗行为:生成虚假信息、垃圾内容、冒充他人等
- 未披露AI系统风险
违规举报渠道:
- 模型问题:github.com/facebookresearch/llama
- 风险输出:developers.facebook.com/llama_output_feedback
- 安全问题:facebook.com/whitehat/info
- 政策违规:LlamaUseReport@meta.com
extra_gated_fields:
名: 文本
姓: 文本
出生日期: 日期选择器
国家: 国家选择
所属机构: 文本
地理位置: IP定位
勾选即表示接受许可条款,并同意根据Meta隐私政策处理提交的信息: 复选框
extra_gated_description: 所提交信息将依据Meta隐私政策进行收集处理。
extra_gated_button_content: 提交
language:
- 代码
pipeline_tag: 文本生成
tags:
- facebook
- meta
- pytorch
- llama
- llama-2
license: llama2
Code Llama
Code Llama是由70亿至340亿参数规模的预训练及微调生成文本模型组成的系列。本仓库为Hugging Face Transformers格式的130亿参数基础版本,适用于通用代码生成与理解。其他模型索引见底部。
模型使用
安装依赖:
pip install transformers accelerate
功能支持:
- [x] 代码补全
- [x] 代码填充
- [ ] 指令交互
- [ ] Python专项
示例代码:
from transformers import AutoTokenizer
import transformers
import torch
model = "meta-llama/CodeLlama-13b-hf"
tokenizer = AutoTokenizer.from_pretrained(model)
pipeline = transformers.pipeline(
"text-generation",
model=model,
torch_dtype=torch.float16,
device_map="auto",
)
sequences = pipeline(
'import socket\n\ndef ping_exponential_backoff(host: str):',
do_sample=True,
top_k=10,
temperature=0.1,
top_p=0.95,
num_return_sequences=1,
eos_token_id=tokenizer.eos_token_id,
max_length=200,
)
for seq in sequences:
print(f"生成结果: {seq['generated_text']}")
模型详情
开发者 Meta
版本 提供7B/13B/34B三种参数规模及基础版/Python专用版/指令版三种变体
输入输出 仅处理文本数据
架构 基于优化Transformer的自回归语言模型
训练时间 2023年1月至7月
许可 需遵守Meta定制商业许可
论文 详见Code Llama: Open Foundation Models for Code
预期用途
适用于英语及主流编程语言的商业与研究用途,基础版可用于通用代码任务,Python版专精Python开发,指令版更适合代码助手场景。
硬件要求
训练配置 使用Meta研究超级计算机集群,总耗能40万A100-80GB GPU小时,碳排放65.3吨(已通过碳中和计划抵消)。
训练数据
训练集与Llama 2相同但采用不同权重配比(详见论文第2章)。
伦理考量
所有LLM均存在输出不确定性风险,部署前需针对具体应用场景进行安全测试与调优。建议参阅负责任使用指南。