L

Llama 3.2 1B Instruct Q4 K M GGUF

由 hugging-quants 开发
这是一个基于Meta Llama-3.2-1B-Instruct模型转换的GGUF格式量化版本,适用于本地推理场景。
下载量 24.70k
发布时间 : 9/25/2024

模型简介

本模型是Meta Llama-3.2-1B-Instruct的4位量化版本,专为高效本地推理设计,支持多种语言和文本生成任务。

模型特点

高效量化
采用Q4_K_M量化方法,在保持较高精度的同时显著减少模型体积和内存需求
多语言支持
支持包括英语、德语、法语等8种语言的文本生成任务
本地推理优化
GGUF格式专为llama.cpp优化,可在消费级硬件上高效运行

模型能力

文本生成
指令跟随
多语言处理

使用案例

内容创作
文章写作辅助
帮助用户生成文章草稿或写作灵感
教育
语言学习助手
为语言学习者提供多语言练习和反馈
AIbase
智启未来,您的人工智能解决方案智库
简体中文