C

Chinese Llama 2 7b 16k

由 hfl 开发
Chinese-LLaMA-2-7B-16K是基于Meta发布的Llama-2开发的中文大模型,支持16K上下文长度,适用于推理和全参数训练。
下载量 57
发布时间 : 8/25/2023
模型介绍
内容详情
替代品

模型简介

这是一个完整的中文LLaMA-2-7B-16K模型,可直接加载用于推理和全参数训练。模型在原有Llama-2的基础上扩充并优化了中文词表,使用了大规模中文数据进行增量预训练,提升了中文基础语义理解能力。

模型特点

长上下文支持
支持16K上下文长度,通过NTK方法可扩展至18K+
中文优化
扩充并优化了中文词表,使用大规模中文数据进行增量预训练
多用途
可直接用于推理和全参数训练
兼容性强
支持LLaMA生态系统的多种工具,如transformers、llama.cpp等

模型能力

文本生成
语义理解
长文本处理
指令跟随

使用案例

自然语言处理
中文文本生成
生成高质量的中文文本内容
生成流畅、符合语义的中文文本
长文档处理
处理和分析长文档内容
有效理解和处理长达16K的文本内容
教育
智能问答
构建教育领域的智能问答系统
提供准确、相关的知识解答