L

Longalpaca 7b 32k Chinese

由 yuyijiong 开发
基于Llama2的中文长文本对话模型,支持32k上下文长度,适用于长文本问答、总结等任务
下载量 32
发布时间 : 10/25/2023
模型介绍
内容详情
替代品

模型简介

采用LongLora训练技术对llama2-chat模型进行位置插值后微调,具备优秀的长文本处理能力,支持万字级多文档检索和论文总结

模型特点

超长上下文处理
通过位置插值技术将上下文窗口扩展至32k tokens,可处理万字级长文本
中文优化
使用中文长指令数据集微调,特别优化中文长文本处理能力
多文档问答
支持同时处理多个参考文档并生成综合回答
流式生成支持
兼容streaming-LLM,可生成超长文本内容

模型能力

长文本问答
多文档信息整合
学术论文总结
中文对话生成
长文本指令理解

使用案例

学术研究
论文总结
对长篇学术论文进行要点总结
在vcsum数据集上rouge-L得分0.15166
信息检索
多文档问答
从多个相关文档中提取信息回答复杂问题
在dureader数据集上rouge-L得分0.18369