基于Llama-3-8B优化的32K长上下文模型,通过PoSE训练扩展上下文长度,专注于角色扮演和创意写作任务
下载量 541
发布时间 : 6/22/2024
模型简介
该模型是通过PoSE训练方法将8K上下文扩展至32K的Llama-3-8B优化版本,特别强化了角色扮演和创意写作能力,同时保持了基础语言理解能力
模型特点
扩展上下文处理
通过PoSE训练方法将上下文长度从8K扩展至32K,优于常规rope缩放方案
高质量角色扮演
经过深度清理和人工筛选的角色扮演样本,提供优异的交互体验
创意写作增强
创意写作训练样本翻倍,显著提升生成质量
优化训练配置
采用经过调试的最优Rope Theta值(200万)配置,确保训练稳定性
模型能力
长文本生成
角色扮演对话
创意内容创作
指令跟随
上下文理解
使用案例
娱乐与创作
互动式角色扮演
与AI进行沉浸式角色扮演对话
主观体验报告显示交互质量优异
创意写作辅助
生成小说、诗歌等创意文本
训练数据中创意写作样本增加2倍
长文档处理
长文摘要
处理长达32K上下文的文档摘要任务
基础测试显示优于常规rope缩放方案
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文