🚀 llm-jp-3-3.7b-instruct3
LLM-jp-3 是由国立情报学研究所的大语言模型研发中心开发的一系列大语言模型。
本仓库提供了 llm-jp-3-3.7b-instruct3 模型。如需了解不同参数规模的 LLM-jp-3 模型概述,请参考:
检查点格式:Hugging Face Transformers
🚀 快速开始
所需库及其版本
- torch>=2.3.0
- transformers>=4.40.1
- tokenizers>=0.19.1
- accelerate>=0.29.3
- flash-attn>=2.5.8
使用示例
基础用法
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("llm-jp/llm-jp-3-3.7b-instruct3")
model = AutoModelForCausalLM.from_pretrained("llm-jp/llm-jp-3-3.7b-instruct3", device_map="auto", torch_dtype=torch.bfloat16)
chat = [
{"role": "system", "content": "以下は、タスクを説明する指示です。要求を適切に満たす応答を書きなさい。"},
{"role": "user", "content": "自然言語処理とは何か"},
]
tokenized_input = tokenizer.apply_chat_template(chat, add_generation_prompt=True, tokenize=True, return_tensors="pt").to(model.device)
with torch.no_grad():
output = model.generate(
tokenized_input,
max_new_tokens=100,
do_sample=True,
top_p=0.95,
temperature=0.7,
repetition_penalty=1.05,
)[0]
print(tokenizer.decode(output))
📚 详细文档
模型详情
属性 |
详情 |
模型类型 |
基于 Transformer 的语言模型 |
总所见词元 |
2.1T 词元 |
参数 |
层数 |
隐藏层大小 |
头数 |
上下文长度 |
嵌入参数 |
非嵌入参数 |
150M |
12 |
512 |
8 |
4096 |
101,874,688 |
50,344,448 |
440M |
16 |
1024 |
8 |
4096 |
203,749,376 |
243,303,424 |
980M |
20 |
1536 |
8 |
4096 |
305,624,064 |
684,258,816 |
1.8b |
24 |
2048 |
16 |
4096 |
407,498,752 |
1,459,718,144 |
3.7b |
28 |
3072 |
24 |
4096 |
611,248,128 |
3,171,068,928 |
7.2b |
32 |
4096 |
32 |
4096 |
814,997,504 |
6,476,271,616 |
13b |
40 |
5120 |
40 |
4096 |
1,018,746,880 |
12,688,184,320 |
172b |
96 |
12288 |
96 |
4096 |
2,444,992,512 |
169,947,181,056 |
分词器
该模型的分词器基于 huggingface/tokenizers 的 Unigram 字节回退模型。词汇表条目由 llm-jp-tokenizer v3.0
转换而来。有关词汇表构建过程的详细信息,请参考 llm-jp-tokenizer
的 README.md(纯 SentencePiece 训练无法复现我们的词汇表)。
数据集
预训练
模型使用以下数据集的混合进行了预训练。
后训练
我们使用监督微调对预训练检查点进行了微调,并通过直接偏好优化进一步对齐。
监督微调
用于监督微调的数据集如下:
直接偏好优化
用于监督微调的数据集如下:
评估
详细的评估结果请参考此 博客。
风险与局限性
此处发布的模型处于我们研发的早期阶段,尚未进行调整以确保输出符合人类意图和安全考量。
咨询问题
请发送邮件至 llm-jp(at)nii.ac.jp
📄 许可证
Apache 许可证,版本 2.0
模型卡片作者
姓名按字母顺序排列。
Hirokazu Kiyomaru 和 Takashi Kodama。