P

Phi 4 Quantized.w4a16

由 RedHatAI 开发
phi-4的INT4量化版本,通过权重量化减少75%的存储和内存需求,保持高性能
下载量 723
发布时间 : 3/3/2025
模型介绍
内容详情
替代品

模型简介

基于microsoft/phi-4的量化模型,适用于内存/计算受限环境和延迟敏感场景,特别擅长逻辑推理任务

模型特点

高效量化
采用INT4权重量化,磁盘大小和GPU内存需求减少约75%
高性能保持
量化后性能保持率达99.3%,在OpenLLM基准测试中表现优异
推理优化
特别适合内存/计算受限环境和延迟敏感场景
多领域能力
在自然语言处理、数学和代码生成等任务中表现突出

模型能力

文本生成
逻辑推理
数学计算
代码生成
对话交互

使用案例

资源受限环境
边缘设备部署
在内存有限的边缘设备上运行大型语言模型
减少75%内存需求
低延迟应用
需要快速响应的实时对话系统
保持高性能同时降低延迟
专业领域
数学问题求解
解决复杂的数学问题和逻辑推理
GSM-8K基准测试得分89.69
代码辅助
帮助开发者生成和优化代码