license: llama3
library_name: transformers
pipeline_tag: text-generation
base_model: meta-llama/Meta-Llama-3-8B-Instruct
language:
- en
- zh
tags:
- llama-factory
- orpo
🌟 我们已在GitHub仓库中完整说明了如何下载、使用及复现我们的各类模型。若您喜欢我们的模型,欢迎为我们的GitHub仓库点星支持,并在HuggingFace仓库页面点击“点赞”。感谢您的支持!
❗️❗️❗️注意:本仓库仅包含Llama3-8B-Chinese-Chat-v2.1的q4_0 GGUF文件。如需使用Llama3-8B-Chinese-Chat-v1,请访问https://huggingface.co/shenzhi-wang/Llama3-8B-Chinese-Chat/tree/v1;如需使用Llama3-8B-Chinese-Chat-v2,请访问https://huggingface.co/shenzhi-wang/Llama3-8B-Chinese-Chat/tree/v2。
❗️❗️❗️注意:为保持最佳性能,我们未对模型身份信息进行微调。因此,诸如“你是谁”或“谁开发了你”的提问可能得到随机且不准确的回答。
更新日志
- 🚀🚀🚀 [2024年5月6日] 正式推出Llama3-8B-Chinese-Chat-v2.1!相比v1,v2.1的训练数据集规模扩大5倍(约10万条偏好对),并在角色扮演、函数调用和数学能力方面显著提升!相比v2,v2.1在数学能力上更胜一筹,且中文回答中混杂英文词汇的现象减少。Llama3-8B-Chinese-Chat-v2.1的训练数据集即将公开。若您喜爱v1或v2版本,v2.1绝对不容错过!
- 🔥 我们为Llama3-8B-Chinese-Chat-v2提供了在线交互演示,欢迎体验最新模型!
- 🔥 我们为Llama3-8B-Chinese-Chat-v2.1的q4_0 GGUF版本提供了官方Ollama模型:wangshenzhi/llama3-8b-chinese-chat-ollama-q4。运行以下命令快速使用:
ollama run wangshenzhi/llama3-8b-chinese-chat-ollama-q4
。
- 🔥 我们为Llama3-8B-Chinese-Chat-v2.1的q8_0 GGUF版本提供了官方Ollama模型:wangshenzhi/llama3-8b-chinese-chat-ollama-q8。运行命令:
ollama run wangshenzhi/llama3-8b-chinese-chat-ollama-q8
。
- 🔥 我们为Llama3-8B-Chinese-Chat-v2.1的f16 GGUF版本提供了官方Ollama模型:wangshenzhi/llama3-8b-chinese-chat-ollama-fp16。运行命令:
ollama run wangshenzhi/llama3-8b-chinese-chat-ollama-fp16
。
- 🔥 我们提供了Llama3-8B-Chinese-Chat-v2.1的官方q4_0 GGUF版本:https://huggingface.co/shenzhi-wang/Llama3-8B-Chinese-Chat-GGUF-4bit!
- 🔥 我们提供了Llama3-8B-Chinese-Chat-v2.1的官方q8_0 GGUF版本:https://huggingface.co/shenzhi-wang/Llama3-8B-Chinese-Chat-GGUF-8bit!
- 🔥 我们提供了Llama3-8B-Chinese-Chat-v2.1的官方f16 GGUF版本:https://huggingface.co/shenzhi-wang/Llama3-8B-Chinese-Chat-GGUF-f16!
Llama3-8B-Chinese-Chat-v2更新详情[点击展开]
- 🔥 Llama3-8B-Chinese-v2链接:https://huggingface.co/shenzhi-wang/Llama3-8B-Chinese-Chat/tree/v2
- 🔥 我们提供了Llama3-8B-Chinese-Chat-v2的官方f16 GGUF版本:https://huggingface.co/shenzhi-wang/Llama3-8B-Chinese-Chat-GGUF-f16/tree/v2!
- 🔥 我们提供了Llama3-8B-Chinese-Chat-v2的官方8位量化GGUF版本:https://huggingface.co/shenzhi-wang/Llama3-8B-Chinese-Chat-GGUF-8bit/tree/v2!
- 🔥 我们为Llama3-8B-Chinese-Chat-v2提供了在线交互演示(https://huggingface.co/spaces/llamafactory/Llama3-8B-Chinese-Chat),欢迎体验最新模型!
- 🚀🚀🚀 [2024年4月29日] 正式推出Llama3-8B-Chinese-Chat-v2!相比v1,v2的训练数据集规模扩大5倍(约10万条偏好对),并在角色扮演、函数调用和数学能力方面显著提升!若您喜爱v1版本,v2绝对不容错过!
Llama3-8B-Chinese-Chat-v1更新详情[点击展开]
模型概览
Llama3-8B-Chinese-Chat是基于Meta-Llama-3-8B-Instruct模型微调的中英文指令对话模型,具备角色扮演、工具调用等多样化能力。
开发者:王慎之*、郑耀威*、王国印(in.ai)、宋士吉、黄高。(*:共同贡献)
1. 简介
这是首个基于Meta-Llama-3-8B-Instruct模型通过ORPO[1]专为中英文用户微调的对话模型。
相比原版Meta-Llama-3-8B-Instruct模型,我们的Llama3-8B-Chinese-Chat-v1显著减少了“中文提问英文回答”及中英文混杂的问题。
相比Llama3-8B-Chinese-Chat-v1,v2版本训练数据量大幅增加(从2万条增至10万条),在角色扮演、工具调用和数学能力上表现更优。
[1] Hong, Jiwoo, Noah Lee, and James Thorne. "Reference-free Monolithic Preference Optimization with Odds Ratio." arXiv preprint arXiv:2403.07691 (2024).
训练框架:LLaMA-Factory。
训练细节:
- 训练轮次:2
- 学习率:5e-6
- 学习率调度器类型:cosine
- 预热比例:0.1
- 截断长度(上下文长度):8192
- orpo beta(ORPO论文中的λ):0.05
- 全局批次大小:128
- 微调类型:全参数微调
- 优化器:paged_adamw_32bit
模型复现方法[点击展开]
复现Llama3-8B-Chinese-Chat-v2(复现v1请参考此链接):
git clone https://github.com/hiyouga/LLaMA-Factory.git
git reset --hard 32347901d4af94ccd72b3c7e1afaaceb5cb3d26a
cd LLaMA-Factory
deepspeed --num_gpus 8 src/train_bash.py \
--deepspeed ${Your_Deepspeed_Config_Path} \
--stage orpo \
--do_train \
--model_name_or_path meta-llama/Meta-Llama-3-8B-Instruct \
--dataset ${Your_Dataset_Name_or_PATH} \
--template llama3 \
--finetuning_type full \
--output_dir ${Your_Output_Path} \
--per_device_train_batch_size 1 \
--per_device_eval_batch_size 1 \
--gradient_accumulation_steps 8 \
--lr_scheduler_type cosine \
--log_level info \
--logging_steps 5 \
--save_strategy epoch \
--save_total_limit 3 \
--save_steps 100 \
--learning_rate 5e-6 \
--num_train_epochs 3.0