思维链优化
Fairyr1 32B GGUF
Apache-2.0
FairyR1-32B是由北大DS-LAB开发的高效大语言模型,基于DeepSeek-R1-Distill-Qwen-32B,通过'蒸馏-融合'创新流程实现高性能与低成本推理的平衡。
大型语言模型
Transformers
英语
F
Mungert
867
1
Fairyr1 32B
Apache-2.0
FairyR1-32B是一款高效的大型语言模型,基于DeepSeek-R1-Distill-Qwen-32B,通过优化的蒸馏与合并流程,在数学和编程任务上表现优异。
大型语言模型
Transformers
英语
F
PKU-DS-LAB
372
85
Denker Mistral Nemo 12B
Apache-2.0
Denker是一个小型、无审查、专注于推理的模型,基于mistral-nemo-kartoffel-12B使用ORPO和QLoRA进行微调。
大型语言模型
Transformers
D
nbeerbower
20
2
Qwen3 30B A6B 16 Extreme 128k Context
基于千问3-30B-A3B的混合专家模型微调版本,激活专家数提升至16,上下文窗口扩展至128k,适合复杂推理场景
大型语言模型
Transformers
Q
DavidAU
72
7
360zhinao3 7B O1.5
Apache-2.0
360智脑3-7B-O1.5是奇虎360开源的长思维链模型,基于360智脑3-7B-Instruct微调,支持复杂推理任务。
大型语言模型
Transformers
支持多种语言
3
qihoo360
35
3
MAI DS R1 FP8
MIT
MAI-DS-R1是微软AI团队对DeepSeek-R1推理模型进行后训练的成果,旨在提升其对敏感话题的响应能力并优化风险表现,同时保持原有的推理能力和竞争优势。
大型语言模型
Transformers
M
microsoft
845
18
Nova 0.5 R1 7B
Apache-2.0
基于OpenThoughts-114k-math数学数据集及其他增强思维能力训练集打造的高性能推理模型
大型语言模型
Transformers
英语
N
oscar128372
18
2
QWQ 32B FP8
Apache-2.0
QwQ-32B-FP8 是 QwQ-32B 模型的 FP8 量化版本,保持了与 BF16 版本几乎相同的准确率,同时支持更快的推理速度。
大型语言模型
Transformers
Q
qingcheng-ai
144
6
Deepseek R1 Medical CoT
MIT
基于DeepSeek-R1-Distill-Llama-8B微调的医疗思维链推理模型,通过QLoRA量化技术和Unsloth优化方案增强医疗推理能力。
大型语言模型
D
zijiechen156
49
2
Acemath 7B Instruct
AceMath-7B-Instruct是英伟达推出的专为数学推理设计的指导模型,基于改进版Qwen架构开发,擅长通过思维链(CoT)推理解决英文数学问题。
大型语言模型
英语
A
nvidia
1,454
22
Llamav O1
Apache-2.0
LlamaV-o1 是一款先进的多模态大语言模型,专为复杂的视觉推理任务而设计,通过课程学习技术优化,在多样化的基准测试中展现出卓越性能。
文本生成图像
英语
L
omkarthawakar
1,406
93
Codellama 7b Hf ReFT GSM8k
通过强化微调增强大语言模型的推理泛化能力,基于Codellama微调,适用于代码生成与理解任务。
大型语言模型
Transformers
C
lqtrung1998
38
1
Llemma 7b
Llemma 34B 是一款专注于数学领域的语言模型,基于Code Llama 34B权重初始化,并在Proof-Pile-2数据集上训练。
大型语言模型
Transformers
英语
L
EleutherAI
3,668
106