库名称: transformers
许可证: 其他
许可证名称: qwen
许可证链接: https://huggingface.co/Qwen/Qwen2.5-14B/blob/main/LICENSE
基础模型: Qwen/Qwen2.5-14B
标签:
- 训练生成
模型索引:
- 名称: 14B-Qwen2.5-Freya-x1
结果: []

训练失败时的我
14B-Qwen2.5-Freya-v1
我决定再次尝试不同的训练方法,考虑到多步训练等方法重新流行起来。有些人又开始这么做了,那为什么不试试呢?受AshhLimaRP的方法启发,但按照我的方式实现。
Freya-S1
- 基于Qwen 2.5基础模型,使用约1.1GB的文学和原始文本训练LoRA。
- 尽可能清理了文本和文学数据,但仍可能存在一些问题。
Freya-S2
- 第一个LoRA应用于Qwen 2.5 Instruct模型,然后在此基础上继续训练。
- 降低了LoRA的秩,主要是针对指令和其他细节(此处不展开)。
推荐模型设置 | 看,我就用这些,效果还不错。我甚至不知道DRY或其他采样器是怎么工作的。反正你的系统提示更重要。
提示格式: ChatML
温度: 1+ # 我也不知道,老兄。
min_p: 0.05
总训练时间约10小时,使用8xH100节点,由新加坡政府或其他机构赞助。感谢内政部的国民服役津贴。
联系方式:https://sao10k.carrd.co/

查看axolotl配置
axolotl版本: 0.6.0
基础模型:
- s1: Qwen/Qwen2.5-14B
- s2: Qwen/Qwen2.5-14B-Instruct
模型类型: AutoModelForCausalLM
分词器类型: AutoTokenizer
加载8位: false
加载4位: false
严格模式: false
序列长度: 16384
bf16: auto
fp16:
tf32: false
闪光注意力: true
特殊标记:
适配器: lora
lora_r:
- s1: 64
- s2: 32
lora_alpha: 64
lora_dropout: 0.2
lora_fan_in_fan_out:
peft_use_rslora: true
lora_target_linear: true
数据集准备路径: dataset_run_freya
数据集:
- 路径: datasets/eBooks-cleaned-75K
类型: completion
- 路径: datasets/novels-clean-dedupe-10K
类型: completion
- 路径: datasets/10k-amoral-full-fixed-sys.json
类型: chat_template
聊天模板: chatml
训练角色: ["gpt"]
消息字段: conversations
角色字段: from
内容字段: value
在EOS上训练: turn
- 路径: datasets/44k-hespera-smartshuffle.json
类型: chat_template
聊天模板: chatml
训练角色: ["gpt"]
消息字段: conversations
角色字段: from
内容字段: value
在EOS上训练: turn
- 路径: datasets/5k_rpg_adventure_instruct-sys.json
类型: chat_template
聊天模板: chatml
训练角色: ["gpt"]
消息字段: conversations
角色字段: from
内容字段: value
在EOS上训练: turn
合并数据集时打乱: true
预热比例: 0.1
插件:
- axolotl.integrations.liger.LigerPlugin
liger_rope: true
liger_rms_norm: true
liger_layer_norm: true
liger_glu_activation: true
liger_fused_linear_cross_entropy: true
训练轮数:
- s1: 1
- s2: 2
样本打包: true
填充至序列长度: true
训练输入: false
按长度分组: false
梯度累积步数: 4
微批次大小: 2
梯度检查点: unsloth
验证集大小: 0.025
每轮评估次数: 5
评估表大小:
评估最大新标记: 256
评估样本打包: false
评估批次大小: 1
优化器: paged_ademamix_8bit
学习率调度器: cosine
学习率:
- s1: 0.000002
- s2: 0.000004
权重衰减: 0.2
最大梯度范数: 10.0
回收步数: 10
深度速度: ./deepspeed_configs/zero2.json