M

Meta Llama 3 8B Instruct GGUF

由 Mungert 开发
基于Llama-3-8B-Instruct的IQ-DynamicGate超低位量化(1-2比特)模型,采用精度自适应量化技术,在保持极致内存效率的同时提升推理精度。
下载量 1,343
发布时间 : 3/17/2025
模型介绍
内容详情
替代品

模型简介

该模型是Meta Llama 3系列中的8B参数指令调优版本,经过特殊量化处理,适用于内存受限环境下的高效推理。

模型特点

IQ-DynamicGate量化技术
采用分层策略的精度自适应量化,在1-2比特超低位量化下仍保持较高精度
关键组件保护
嵌入/输出层使用Q5_K量化,减少38%误差传播
极致内存效率
IQ1_S量化版本仅需2.1GB内存,适合边缘设备部署

模型能力

指令跟随
文本生成
编程辅助
问答系统

使用案例

边缘计算
低功耗设备部署
在内存受限的IoT设备上运行大型语言模型
IQ1_S量化版仅需2.1GB内存
研究开发
超低位量化研究
作为1-2比特量化技术的研究基准
IQ1_M困惑度降低43.9%