D

Deepseek R1 0528 AWQ

由 cognitivecomputations 开发
DeepSeek R1 0528的AWQ量化模型,支持使用vLLM在8块80GB GPU上以全上下文长度运行。
下载量 145
发布时间 : 6/1/2025
模型介绍
内容详情
替代品

模型简介

这是一个经过AWQ量化的DeepSeek-R1-0528模型版本,修复了使用float16时的溢出问题,优化了在vLLM框架下的运行效率。

模型特点

AWQ量化优化
修改了部分模型代码,修复了使用float16时的溢出问题,提高了模型运行效率。
全上下文长度支持
支持使用vLLM在8块80GB GPU上以全上下文长度运行该模型。
高性能推理
针对A100 GPU优化了FlashMLA实现,在高上下文推理时比Triton更优。

模型能力

文本生成
长文本处理
多语言支持

使用案例

文本生成
长文本生成
支持长达63K输入和2K输出的文本生成任务。
在8x H100/H200配置下达到54.3 TPS
批量处理
支持批量处理32个请求,每个请求4K输入和256输出。
在8x H100/H200配置下达到30.1 TPS