模型简介
模型特点
模型能力
使用案例
🚀 Llama-2-Ko-Chat 🦙🇰🇷
Llama-2-Ko-Chat是基于Transformer架构的文本生成模型,它以beomi/llama-2-ko-7b
为基础进行训练,能够为用户提供高质量的文本生成服务,在多种文本生成任务中表现出色。
🚀 快速开始
Llama-2-Ko-7b-Chat基于beomi/llama-2-ko-7b 40B构建。训练数据来自nlpai-lab/kullm-v2。目前该模型仍在训练中,后续会根据beomi/llama-2-ko-7b的更新进行进一步训练。此模型是基于Naver BoostCamp NLP-08项目开发的。
项目链接:LLaMA
✨ 主要特性
模型详情
属性 | 详情 |
---|---|
骨干模型 | beomi/llama-2-ko-7b |
模型开发者 | Taemin Kim (kfkas)、Juwon Kim (uomnf97) |
训练数据 | nlpai-lab/kullm-v2 |
提示词 | kullm |
输入 | 模型仅接受文本输入 |
输出 | 模型仅生成文本输出 |
模型对比
问题:生成露营旅行所需的10种物品清单
模型 | 回答 |
---|---|
Llama-2-7b-chat-hf | [Hello! As a helpful and respectful assistant, I'd be happy to help you with your camping trip. To ensure a safe and enjoyable experience, here is a list of 10 essential items you may need for your camping trip:Tent: A sturdy, waterproof tent to provide shelter and protection from the elements.Sleeping Bag: A warm, insulated sleeping bag to keep you cozy during the night.Sleeping Pad: A comfortable sleeping pad to provide extra cushioning and insulation.Backpack: A sturdy, comfortable backpack to carry all your gear.Clothing: Pack layers of breathable, moisture-wicking clothing to stay warm and dry.Footwear: Sturdy, waterproof hiking boots or shoes to protect your feet and provide traction.Headlamp: A reliable, battery-powered headlamp to light your way during the night.First Aid Kit: A well-stocked first aid kit to treat any injuries or illnesses.Water Bottle: A refillable, BPA-free water bottle to stay hydrated.Personal Hygiene Items: Toothbrush, toothpaste, biodegradable soap, and toilet paper to maintain personal hygiene.] |
Llama-2-ko | [3일용 캠핑장 용품 - 의류 (5일) : 속옷 , 잠옷, 긴팔 및 반팔이 필요하므로 준비하기!\u200b- 식량 (9일 이상)- 연료 (6일 사용 예정이지만 최소 7 일분 보유해야 합니다.)\u200b- 텐트/거주지역 : 20 ~ 40 평방 미터가 필요합니다.- 물 탱크 (물탱커 / 수족관 )\u200b캠핑에 사용할 8 명 (남자 4명 / 여자 4명이 필요합니다!).이 작업에는 두 개의 조건 부가가 있습니다.(조건 1) 모든 아이템 목록에서 중복 제거를위한 1 번 반복.이 옵션은 중복을 식별하여 제거할뿐만 아니라 추가 항목이 포함 된 카운트를 재설정 할 때 유용하군요.(조건 = "모든 아이템 리스트에서 한 개 이상의 동일 아이템" 이거나 "(모든 항목)"에서 동일한 숫자 값으로 식별 된)\u200b(조건 2) 작업시 각 행이 하나의 아이템 만 포함 할 필요가 없으므로 아이템이 서로 다른 선행자 로부터 여러 번] |
Llama-2-ko-Chat | [1) 텐트 - 가장 기본적이면서 유용한 장비 중 하나이며 캠핑 여행을 편안하게 해줍니다.2) 베개 및 침대 시트와 같이 푹신한 수면 용품을 챙기는 것도 잊지 마세요!3) 매트리스 - 편안함과 지지력을 제공하여 잠을 잘 자게 합니다.4) 의류 - 땀을 흘리고 휴식하는 시간을 늘리기 위해 방수재질이 포함된 긴팔옷과 반바지를 챙겨요5) 식기 세트 - 야외 조리에서 음식을 먹으려면 반드시 챙겨야 할 도구지요.6) 스토브와 연료 또는 휴대용 가스 렌턴 등 열 기구를 가져옵니다; 음식 조리에 매우 편리하게 사용할 수 있습니다.7) 랜턴, 플래시 또는 LED 스탠드를 준비하세요! 어두운 밤에 더 안전하도록 돕고, 야외에서 요리하고 놀 때 필수적인 필수 소품이 될 것입니다.8) 손전등 - 밤늦게 이동할 수도 있고 숲속 오솔길을 걸을 때도 이용할 것이므로 반드시 가지고 있어야 해요.9) 구급약상자 - 다양한 상해에 대비해서 알칼리 미스트, 소독제, 항생제, 연고 등 일반적이고 인기 있는 구급 약물을 항상 비축해야 해요. 캠프에서는 응급 상황에 처하더라도 쉽게 찾을 수 있도록 상자에 담습니다.10) 휴대폰 보조 배터리/충전기 또는 충전 가능한 외부 콘센트나 연결된 외부 전원장치 - 이것은 스마트폰이나 스마트 워치를 위한 필수품일 뿐만 아니라 다른 사람들이 필요로 하는 상황에서 긴급 연락이 되도록 도와 줄 수도 있다는 점 기억하세요.] |
问题:告诉我关于三原色的信息
模型 | 回答 |
---|---|
Llama-2-7b-chat-hf | [Regarding your question, "삼원색에 대해 알려줘" (which means "Tell me about trichromacy" in Korean), I can provide some information. Trichromacy is a concept in vision science that refers to the ability of the human visual system to perceive and distinguish between three primary colors: red, green, and blue...] |
Llama-2-ko | [C1, R0.625 G8 B275\u200b3-4, 삼각형 그리기.\u200b아래에는 삼각형을 그림니다 (그림을 그려야 할 영역의 좌표를 지정) - 명령어와 함께 사용되는 문자열로 입력할 좌표 값과 동일한 결과를 얻음 - 예를 들어 "X=-19. Y=0" 으로 입력을 하면 좌표값을 지정된 값과 같게 출력을 한다. ##########################\u200b##3_0-6-1, 좌표 입력으로 텍스트 파일을 생성하라(ex C4 D6 E10 A10 )-명령문에서 각 문자를 입력과 동일하다. -이 명령은 현재 수행중인 프로그램을 종료한다.-파일은 실행 가능한 파일과 일치할] |
Llama-2-ko-Chat | [물체를 인식하고 색상에 대한 시각적인 이미지를 생성하기 위해 두 개의 눈은 서로 반대쪽 방향에서 물체의 색상 정보와 명암 정보를 받아들이기 때문에, 인간은 일반적으로 색상을 삼원색이라고 하는 세 가지 원추 형태(빨강, 녹색, 파랑색)로 분류합니다. 이 중 한가지 색상이 다른 색상보다 눈에 훨씬 더 빨리 들어오는 경향이 있다고 합니다. 하지만 모든 사람이 그렇지는 않으므로 항상 삼각형 모양으로 색상을 분류하지는 않습니다. 하지만 삼원색이 우리 눈에 잘 전달되며 색상 구별에 중요하다는 것은 부정할 수 없습니다.] |
训练进度
💻 使用示例
推理代码
def gen(x, model, tokenizer, device):
prompt = (
f"아래는 작업을 설명하는 명령어입니다. 요청을 적절히 완료하는 응답을 작성하세요.\n\n### 명령어:\n{x}\n\n### 응답:"
)
len_prompt = len(prompt)
gened = model.generate(
**tokenizer(prompt, return_tensors="pt", return_token_type_ids=False).to(
device
),
max_new_tokens=1024,
early_stopping=True,
do_sample=True,
top_k=20,
top_p=0.92,
no_repeat_ngram_size=3,
eos_token_id=2,
repetition_penalty=1.2,
num_beams=3
)
return tokenizer.decode(gened[0])[len_prompt:]
def LLM_infer(input):
device = (
torch.device("cuda:0") if torch.cuda.is_available() else torch.device("cpu")
)
model_id = "kfkas/Llama-2-ko-7b-Chat"
model = AutoModelForCausalLM.from_pretrained(
model_id, device_map={"": 0},torch_dtype=torch.float16, low_cpu_mem_usage=True
)
tokenizer = AutoTokenizer.from_pretrained(model_id)
model.eval()
model.config.use_cache = (True)
tokenizer.pad_token = tokenizer.eos_token
output = gen(input, model=model, tokenizer=tokenizer, device=device)
return output
if __name__ == "__main__":
text = LLM_infer("삼원색에 대해 알려줘")
print(text)
oobabooga/text-generation-webui注意事项
需要移除modules/models.py
文件中load_tokenizer
函数(第109行左右)的ValueError
异常捕获。
diff --git a/modules/models.py b/modules/models.py
index 232d5fa..de5b7a0 100644
--- a/modules/models.py
+++ b/modules/models.py
@@ -106,7 +106,7 @@ def load_tokenizer(model_name, model):
trust_remote_code=shared.args.trust_remote_code,
use_fast=False
)
- except ValueError:
+ except:
tokenizer = AutoTokenizer.from_pretrained(
path_to_model,
trust_remote_code=shared.args.trust_remote_code,
由于Llama-2-Ko使用的是HF tokenizers提供的FastTokenizer,而非sentencepiece包,因此在初始化分词器时需要使用use_fast=True
选项。
苹果硅芯片不支持BF16计算,请使用CPU代替(NVIDIA GPU支持BF16)。
📚 详细文档
Llama 2原始模型卡
模型详情
注意:使用此模型需遵守Meta的许可协议。若要下载模型权重和分词器,请访问网站,并在请求访问前接受许可协议。
Meta开发并公开发布了Llama 2系列大语言模型(LLMs),这是一系列预训练和微调的生成式文本模型,参数规模从70亿到700亿不等。我们的微调模型Llama-2-Chat针对对话场景进行了优化。在我们测试的大多数基准测试中,Llama-2-Chat模型的表现优于开源聊天模型,在我们的人工评估中,其在有用性和安全性方面与一些流行的闭源模型(如ChatGPT和PaLM)相当。
属性 | 详情 |
---|---|
模型开发者 | Meta |
变体 | Llama 2有不同的参数规模,包括7B、13B和70B,以及预训练和微调版本 |
输入 | 模型仅接受文本输入 |
输出 | 模型仅生成文本输出 |
模型架构 | Llama 2是一种自回归语言模型,采用了优化的Transformer架构。微调版本使用了监督微调(SFT)和基于人类反馈的强化学习(RLHF),以符合人类对有用性和安全性的偏好 |
模型 | 训练数据 | 参数 | 内容长度 | GQA | 标记数 | 学习率 |
---|---|---|---|---|---|---|
Llama 2 | 公开可用的在线数据的新组合 | 7B | 4k | ❌ | 2.0T | 3.0 x 10-4 |
Llama 2 | 公开可用的在线数据的新组合 | 13B | 4k | ❌ | 2.0T | 3.0 x 10-4 |
Llama 2 | 公开可用的在线数据的新组合 | 70B | 4k | ✅ | 2.0T | 1.5 x 10-4 |
Llama 2系列模型。标记数仅指预训练数据。所有模型均使用400万个标记的全局批量大小进行训练。更大的模型(70B)使用分组查询注意力(GQA)以提高推理的可扩展性。
- 模型日期:Llama 2于2023年1月至2023年7月期间进行训练。
- 状态:这是一个基于离线数据集训练的静态模型。随着我们根据社区反馈改进模型的安全性,未来将发布微调模型的新版本。
- 许可证:可在此处获取自定义商业许可证。
- 研究论文:"Llama-2: Open Foundation and Fine-tuned Chat Models"
预期用途
- 预期用例:Llama 2旨在用于英语的商业和研究用途。微调模型适用于类似助手的聊天场景,而预训练模型可用于各种自然语言生成任务。
为了获得聊天版本的预期功能和性能,需要遵循特定的格式,包括INST
和<<SYS>>
标签、BOS
和EOS
标记,以及它们之间的空格和换行符(我们建议对输入调用strip()
以避免双空格)。详情请参阅我们在github上的参考代码:chat_completion
。
- 超出范围的用途:以任何违反适用法律法规(包括贸易合规法律)的方式使用。使用英语以外的语言。以Llama 2的可接受使用政策和许可协议禁止的任何其他方式使用。
硬件和软件
- 训练因素:我们使用自定义训练库、Meta的研究超级集群和生产集群进行预训练。微调、标注和评估也在第三方云计算平台上进行。
- 碳足迹:预训练使用了A100 - 80GB类型的硬件,累计计算时长为330万个GPU小时(TDP为350 - 400W)。估计总排放量为539 tCO2eq,其中100%由Meta的可持续发展计划进行了抵消。
模型 | 时间(GPU小时) | 功耗(W) | 碳排放(tCO2eq) |
---|---|---|---|
Llama 2 7B | 184320 | 400 | 31.22 |
Llama 2 13B | 368640 | 400 | 62.44 |
Llama 2 70B | 1720320 | 400 | 291.42 |
总计 | 3311616 | 539.00 |
预训练期间的CO2排放。时间:每个模型训练所需的总GPU时间。功耗:所用GPU设备的峰值功率容量,已根据功率使用效率进行调整。100%的排放量直接由Meta的可持续发展计划进行抵消,由于我们公开发布了这些模型,其他人无需承担预训练成本。
训练数据
- 概述:Llama 2在来自公开来源的2万亿个标记的数据上进行了预训练。微调数据包括公开可用的指令数据集,以及超过一百万个新的人工标注示例。预训练和微调数据集均不包含Meta用户数据。
- 数据新鲜度:预训练数据的截止日期为2022年9月,但部分微调数据更新至2023年7月。
评估结果
在本节中,我们报告了Llama 1和Llama 2模型在标准学术基准测试中的结果。所有评估均使用我们的内部评估库。
模型 | 规模 | 代码 | 常识推理 | 世界知识 | 阅读理解 | 数学 | MMLU | BBH | AGI评估 |
---|---|---|---|---|---|---|---|---|---|
Llama 1 | 7B | 14.1 | 60.8 | 46.2 | 58.5 | 6.95 | 35.1 | 30.3 | 23.9 |
Llama 1 | 13B | 18.9 | 66.1 | 52.6 | 62.3 | 10.9 | 46.9 | 37.0 | 33.9 |
Llama 1 | 33B | 26.0 | 70.0 | 58.4 | 67.6 | 21.4 | 57.8 | 39.8 | 41.7 |
Llama 1 | 65B | 30.7 | 70.7 | 60.5 | 68.6 | 30.8 | 63.4 | 43.5 | 47.6 |
Llama 2 | 7B | 16.8 | 63.9 | 48.9 | 61.3 | 14.6 | 45.3 | 32.6 | 29.3 |
Llama 2 | 13B | 24.5 | 66.9 | 55.4 | 65.8 | 28.7 | 54.8 | 39.4 | 39.1 |
Llama 2 | 70B | 37.5 | 71.9 | 63.6 | 69.4 | 35.2 | 68.9 | 51.2 | 54.2 |
模型 | TruthfulQA | Toxigen | |
---|---|---|---|
Llama 1 | 7B | 27.42 | 23.00 |
Llama 1 | 13B | 41.74 | 23.08 |
Llama 1 | 33B | 44.19 | 22.57 |
Llama 1 | 65B | 48.71 | 21.77 |
Llama 2 | 7B | 33.29 | 21.25 |
Llama 2 | 13B | 41.86 | 26.10 |
Llama 2 | 70B | 50.18 | 24.60 |
模型 | TruthfulQA | Toxigen | |
---|---|---|---|
Llama-2-Chat | 7B | 57.04 | 0.00 |
Llama-2-Chat | 13B | 62.18 | 0.00 |
Llama-2-Chat | 70B | 64.14 | 0.01 |
伦理考量和局限性
Llama 2是一项新技术,使用时存在一定风险。到目前为止进行的测试均使用英语,且无法涵盖所有场景。因此,与所有大语言模型一样,Llama 2的潜在输出无法提前预测,在某些情况下,模型可能会对用户的提示产生不准确、有偏见或其他令人反感的响应。因此,在部署Llama 2的任何应用程序之前,开发者应针对特定应用场景对模型进行安全测试和调整。
请参阅负责任使用指南。
问题反馈
请通过以下方式报告模型的任何软件“漏洞”或其他问题:
- 报告模型问题:github.com/facebookresearch/llama
- 报告模型生成的有问题内容:developers.facebook.com/llama_output_feedback
- 报告漏洞和安全问题:facebook.com/whitehat/info
Llama模型索引
模型 | Llama2 | Llama2 - hf | Llama2 - chat | Llama2 - chat - hf |
---|---|---|---|---|
7B | 链接 | 链接 | 链接 | 链接 |
13B | 链接 | 链接 | 链接 | 链接 |
70B | 链接 | 链接 | 链接 | 链接 |



