1

14B Qwen2.5 Freya X1

由 Sao10K 开发
基于Qwen2.5-14B和Qwen2.5-14B-Instruct模型的多阶段训练模型,专注于文本生成和指令理解任务。
下载量 252
发布时间 : 12/31/2024
模型介绍
内容详情
替代品

模型简介

该模型采用两阶段训练方法,首先在文学和原始文本上进行LoRA训练,然后在指令数据上进一步微调,旨在提高文本生成质量和指令遵循能力。

模型特点

多阶段训练
采用两阶段训练方法,先基础训练后指令微调,提升模型性能
高效微调
使用LoRA适配器进行参数高效微调,降低训练成本
长上下文支持
支持16384个token的上下文长度
优化训练
采用多种优化技术如闪光注意力、梯度检查点等提升训练效率

模型能力

文本生成
指令理解
文学创作
对话系统

使用案例

内容创作
文学创作
生成小说、散文等文学作品
基于清理后的文学数据集训练,可生成较高质量的文学内容
对话系统
智能助手
构建遵循指令的对话助手
通过指令数据微调,提高指令理解和执行能力