数学代码增强
Llama 3 3 Nemotron Super 49B V1 GGUF
其他
Llama-3.3-Nemotron-Super-49B-v1 是一个大型语言模型,基于 Meta Llama-3.3-70B-Instruct 改进,增强了推理能力、人类聊天偏好以及任务执行能力,支持 128K tokens 的上下文长度
大型语言模型
Transformers
英语
L
unsloth
814
1
Llama 3.1 Nemotron Nano 4B V1.1
其他
Llama-3.1-Nemotron-Nano-4B-v1.1 是一个基于Llama 3.1 8B压缩而来的大型语言模型,优化了推理能力和任务执行效率,适用于单块RTX显卡本地运行。
大型语言模型
Transformers
英语
L
unsloth
219
4
Qwen3 4B GGUF
Apache-2.0
Qwen3-4B是通义千问系列大语言模型的最新版本,具有4B参数规模,支持思维与非思维模式切换,擅长推理、指令遵循和多语言处理。
大型语言模型
Q
QuantFactory
341
1
Llama 3.1 Nemotron Nano 8B V1 GGUF
其他
Llama-3.1-Nemotron-Nano-8B-v1是基于Meta Llama-3.1-8B-Instruct的推理模型,经过后训练增强推理能力、人类聊天偏好及任务执行能力。
大型语言模型
Transformers
英语
L
unsloth
22.18k
3
Qwen3 8B GGUF
Apache-2.0
Qwen3是通义千问系列大语言模型的最新迭代,提供稠密模型与混合专家(MoE)模型的完整套件。
大型语言模型
Q
Qwen
4,474
8
Qwen3 32B GPTQ Int4
Apache-2.0
Qwen3是通义千问系列大语言模型的最新8B参数版本,支持思维模式切换、多语言处理和工具调用,具备强大的推理和对话能力。
大型语言模型
Transformers
Q
JunHowie
1,079
3
Qwen3 8B GGUF
Apache-2.0
Qwen3是Qwen系列最新一代的大语言模型,提供了一系列密集和混合专家(MoE)模型。
大型语言模型
英语
Q
unsloth
64.32k
39
Qwen3 14B Unsloth Bnb 4bit
Apache-2.0
Qwen3是通义千问系列最新一代大语言模型,提供全系列稠密模型和混合专家(MoE)模型。
大型语言模型
Transformers
英语
Q
unsloth
68.67k
5
Qwen3 32B GGUF
Apache-2.0
Qwen3是阿里云开发的大规模语言模型系列的最新版本,具有卓越的推理、指令跟随和多语言支持能力。
大型语言模型
英语
Q
unsloth
123.35k
57
Qwen3 4B GGUF
Apache-2.0
Qwen3-4B是Qwen系列最新一代的大语言模型,具有4B参数规模,支持100多种语言,具备卓越的推理、指令遵循和代理能力。
大型语言模型
英语
Q
unsloth
59.40k
32
Qwen2.5 7B Instruct GGUF Llamafile
Apache-2.0
Qwen2.5是通义千问大模型的最新系列,包含从0.5B到72B参数规模的基础模型和指令微调模型,在代码、数学、指令遵循、长文本生成等领域有显著提升。
大型语言模型
英语
Q
Bojun-Feng
441
2
GLM Z1 9B 0414
MIT
GLM-4-Z1-9B-0414是GLM家族的新一代开源模型,具备优秀的数学推理与通用能力,适合资源受限场景下的轻量部署。
大型语言模型
Transformers
支持多种语言
G
THUDM
3,456
55
Llama 3 3 Nemotron Super 49B V1
其他
Llama-3.3-Nemotron-Super-49B-v1是基于Meta Llama-3.3-70B-Instruct的大型语言模型,专注于推理、对话偏好和任务执行,支持128K tokens上下文长度。
大型语言模型
Transformers
英语
L
nvidia
150.65k
270
Tinyllama V1.1 Chinese
Apache-2.0
TinyLlama是一个11亿参数的小型语言模型,采用与Llama 2相同的架构和分词器,适用于资源有限的应用场景。
大型语言模型
Transformers
英语
T
TinyLlama
447
9
Tinyllama V1.1
Apache-2.0
TinyLlama是一个11亿参数的小型语言模型,采用与Llama 2相同的架构和分词器,适用于资源受限的应用场景。
大型语言模型
Transformers
英语
T
TinyLlama
42.11k
92