基于TeeZee/DarkSapling-7B-v1.1全面重制的32k上下文大语言模型,在指令遵循、推理深度和情感表达方面表现优异
下载量 433
发布时间 : 6/3/2024
模型简介
一个经过32位高清升级和量化优化的创意写作与角色扮演专用大语言模型,支持长上下文理解并减少提示词需求
模型特点
32k长上下文支持
扩展上下文窗口至32k tokens,显著提升长文本连贯性
量化优化技术
Q4KM量化级别实现240点性能提升,使低量化级别达到高量化表现
创意表达增强
在情感表达、细节描写和角色扮演方面有显著优化
提示效率提升
减少提示词需求,释放更多上下文空间用于输出内容
模型能力
创意写作
故事生成
角色扮演对话
长文本连贯生成
情感丰富的文本输出
使用案例
创意写作
小说创作
生成具有复杂情节和人物弧光的完整故事
产出情感丰富、细节精致的文学作品
互动娱乐
角色扮演游戏
作为AI角色进行长时间情境保持的互动对话
保持角色一致性长达32k tokens的上下文记忆
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文