L

Llama 2 7B 32K

由 togethercomputer 开发
基于Meta原版Llama-2 7B模型微调的开源长上下文语言模型,支持32K上下文长度
下载量 5,411
发布时间 : 7/26/2023
模型介绍
内容详情
替代品

模型简介

LLaMA-2-7B-32K是由Together开发的开源长上下文语言模型,通过位置插值技术扩展上下文长度至32K,适用于多文档问答、长文本摘要等任务。

模型特点

扩展上下文
模型经过训练可处理长达32K的上下文,较先前版本有显著提升。
预训练与指令调优
公开了数据配方,包含预训练与指令调优数据的混合。
微调示例
提供了针对特定应用的微调示例,包括书籍摘要和长上下文问答。
软件支持
更新了推理和训练框架,支持32K上下文的高效推理与微调。

模型能力

长文本生成
多文档问答
长文本摘要
指令跟随

使用案例

学术研究
多文档问答
从多篇维基百科文档片段中识别并利用正确答案文档。
内容生成
书籍摘要
针对长篇叙事摘要任务,生成小说、戏剧等文学作品的章节级摘要。