L

Llama3 ChatQA 2 8B

由 nvidia 开发
基于Llama-3基础模型开发的128K长上下文大语言模型,专注于提升RAG和长文本理解能力
下载量 437
发布时间 : 8/28/2024
模型介绍
内容详情
替代品

模型简介

填补开源大语言模型与专有模型在长上下文理解和检索增强生成(RAG)能力之间的差距,支持128K tokens超长上下文处理

模型特点

128K超长上下文
通过三阶段微调流程将上下文窗口从8K扩展到128K tokens
增强RAG能力
针对检索增强生成场景特别优化,性能接近GPT-4-Turbo级别
多阶段训练方案
采用改进版ChatQA-1.5论文训练方案开发
双版本选择
提供8B和70B两种参数规模版本满足不同需求

模型能力

长文本理解
检索增强生成
指令跟随
文档问答
多轮对话

使用案例

金融分析
财报数据分析
从长篇财务报告中提取关键指标和趋势分析
可准确识别净利润变化等关键财务指标
知识问答
长文档问答
基于超长技术文档或研究论文回答专业问题
在32K tokens以上的长文本问答中表现优异