L

Llama 3.2 1B Instruct GGUF

由 Mungert 开发
Llama-3.2-1B-Instruct 是一个基于 Llama 架构的 1B 参数量的指令微调模型,提供多种量化格式以适应不同硬件需求。
下载量 708
发布时间 : 4/25/2025
模型介绍
内容详情
替代品

模型简介

该模型是一个轻量级的大语言模型,适用于指令跟随和生成任务,支持多种量化格式以优化在不同硬件上的运行效率。

模型特点

多格式支持
提供 BF16、F16 和多种量化格式(如 Q4_K、Q6_K、Q8_0 等),以适应不同硬件和内存限制。
硬件优化
支持 BF16 和 FP16 加速,适用于高性能推理和低内存设备。
极致内存效率
提供极低位量化(如 IQ3_XS、IQ3_S、IQ3_M),适用于超低内存设备。
ARM 设备优化
Q4_0 量化格式专门针对 ARM 设备优化,适合移动端和嵌入式应用。

模型能力

文本生成
指令跟随
低内存推理
多硬件支持

使用案例

边缘计算
低功耗设备部署
在 ARM 设备或低内存环境中运行模型,实现本地化文本生成。
减少内存占用,提升运行效率。
高性能推理
GPU 加速推理
在支持 BF16 或 FP16 的 GPU 上运行模型,实现高速文本生成。
提升推理速度,减少延迟。
实验性应用
AI 网络监控
用于实时网络诊断和量子安全检查。
实现自动化网络监控和漏洞检测。