L

Llama 3.1 8B ContinuedTraining2 FFT

由 ericflo 开发
基于Meta-Llama-3.1-8B架构的全参数微调大语言模型,专注于英语文本和Python代码任务,采用多样化数据混合训练方法
下载量 30
发布时间 : 9/9/2024
模型介绍
内容详情
替代品

模型简介

这是一个经过全参数微调的大语言模型,支持文本生成、代码补全和指令跟随任务,特别擅长处理Python代码相关任务

模型特点

全参数微调
不同于LoRA方法,本版本更新所有模型参数以实现全面学习
多样化数据混合
结合预训练和指令数据集实现全面语言理解
中间填充训练(FIM)
引入FIM任务增强上下文理解能力,特别适用于代码补全
8-bit AdamW优化器
使用adamw_bnb_8bit实现内存高效训练
Flash Attention 2
采用flash_attention_2加速训练过程

模型能力

文本补全与生成
Python代码补全
指令跟随
上下文感知文本填充
逆向预测与指令回译

使用案例

编程辅助
Python代码补全
在给定部分代码的情况下自动完成代码编写
提高开发效率,减少编码错误
文本处理
文本填充
在给定文本前缀和后缀的情况下生成中间内容
增强文本连贯性和逻辑性