O

Openreasoning Nemotron 32B Q4 K M GGUF

由 sm54 开发
本模型是从nvidia/OpenReasoning-Nemotron-32B转换而来的GGUF格式模型,可借助llama.cpp进行使用。
下载量 127
发布时间 : 7/18/2025

模型简介

该模型是基于NVIDIA的OpenReasoning-Nemotron-32B转换的GGUF格式版本,主要用于文本生成任务,支持通过llama.cpp进行推理。

模型特点

GGUF格式
模型已转换为GGUF格式,便于通过llama.cpp进行高效推理。
高性能推理
支持在多种硬件上运行,包括NVIDIA GPU加速。
易于部署
提供简单的命令行和服务器接口,便于快速集成和使用。

模型能力

文本生成
代码生成
推理任务

使用案例

通用文本生成
哲学问题回答
回答关于生命和宇宙意义的问题
生成有深度的哲学思考文本
代码相关
代码补全
根据上下文生成代码片段
生成符合语境的代码建议
AIbase
智启未来,您的人工智能解决方案智库
简体中文