Qwen3 30B A3B Quantized.w4a16
Apache-2.0
Qwen3-30B-A3B的INT4量化版本,通过权重量化减少75%的磁盘和GPU内存需求,保持高性能。
大型语言模型
Transformers

Q
RedHatAI
379
2
Phi 4 Reasoning Plus GGUF
MIT
Phi-4-reasoning-plus 是由微软研究院开发的开源推理模型,专注于数学、科学和编程领域的高级推理能力。
大型语言模型
支持多种语言
P
unsloth
109.62k
47
Microsoft Phi 4 Reasoning GGUF
MIT
这是微软Phi-4-reasoning模型的量化版本,使用llama.cpp进行优化,适用于推理任务,支持多种量化选项。
大型语言模型
M
bartowski
5,443
4
Mimo 7B SFT
MIT
MiMo-7B-RL是基于MiMo-7B-SFT模型训练的强化学习模型,在数学与代码推理任务上达到与OpenAI o1-mini比肩的性能。
大型语言模型
Transformers

M
XiaomiMiMo
1,183
23
Tngtech.olmo 2 Instruct Math 32B GGUF
OLMo-2-Instruct-Math-32B 是一个专注于数学任务的大型语言模型,由 tngtech 发布。
大型语言模型
T
DevQuasar
272
1
Openmath Nemotron 1.5B
OpenMath-Nemotron-1.5B是基于Qwen2.5-Math-1.5B在OpenMathReasoning数据集上微调的数学推理模型,在多个数学基准测试中取得最先进结果。
大型语言模型
Transformers

英语
O
nvidia
493
14
Zero Mistral 24B
MIT
Zero-Mistral-24B是基于Mistral-Small-3.1-24B-Instruct-2503改进的纯文本模型,主要适配俄语和英语,移除了原版的视觉功能,专注于文本生成任务。
大型语言模型
Transformers

支持多种语言
Z
ZeroAgency
41
2
Openmath2 Llama3.1 8B
OpenMath2-Llama3.1-8B 是基于 Llama3.1-8B-Base 模型,使用 OpenMathInstruct-2 数据集微调而成的数学专用模型,在多个数学基准测试中表现优异。
大型语言模型
Transformers

英语
O
nvidia
930
30
Viper Coder V1.7 Vsm6
Apache-2.0
Viper-Coder-v1.7-Vsm6是基于千问2.5 14B模态架构设计的大语言模型,专注于提升编码效率和计算推理能力,优化内存使用并减少冗余文本生成。
大型语言模型
Transformers

支持多种语言
V
prithivMLmods
491
5
Phi 4 Reasoning Plus
MIT
Phi-4-reasoning-plus 是微软研究院开发的先进开放权重推理模型,基于 Phi-4 通过监督微调和强化学习优化,专注于数学、科学和编码领域的高级推理能力。
大型语言模型
Transformers

支持多种语言
P
microsoft
19.83k
261
EZO2.5 Gemma 3 12b It Preview
基于google/gemma-3-12b-it模型,通过EZO训练方法提升日语性能的文本生成模型
大型语言模型
Transformers

日语
E
AXCXEPT
39
1
Notbad V1 1 Mistral 24b
Apache-2.0
专注于数学推理和Python编程训练的24B参数大语言模型,基于Mistral架构优化
大型语言模型
Transformers

N
notbadai
34
4
Openrs3 GRPO Ja
OpenRS3-GRPO-ja是基于SakanaAI/TinySwallow-1.5B-Instruct模型在日语数学指令数据集上微调的版本,采用GRPO方法训练,专注于数学推理任务。
大型语言模型
Transformers

O
EQUES
25
3
Notbad V1 0 Mistral 24b
Apache-2.0
Notbad v1.0 Mistral 24B 是一款专注于数学和Python编程推理的模型,基于Mistral-Small-24B-Instruct-2501并通过强化学习进一步训练。
大型语言模型
Transformers

N
notbadai
29
5
EXAONE Deep 7.8B GGUF
其他
EXAONE Deep系列模型在数学和编程等推理任务中表现出色,7.8B版本优于同规模开源模型,甚至超越某些专有模型。
大型语言模型
支持多种语言
E
QuantFactory
297
3
Olmo 2 Instruct Math 32B
Apache-2.0
基于OLMo-2-0325-32B-Instruct模型,使用Open R1数学数据集在AMD MI300X GPU上微调,专注提升数学推理能力
大型语言模型
Transformers

英语
O
tngtech
96
5
Fastcurl 1.5B Preview
MIT
FastCuRL-1.5B-Preview 是一个慢思考推理模型,采用课程引导迭代延长强化学习方法,在数学推理任务上表现优异。
大型语言模型
Transformers

英语
F
Nickyang
779
7
Yixin Distill Qwen 72B 4.5bpw H6 Exl2
Apache-2.0
基于Qwen2.5-72B通过强化学习蒸馏的高性能数学推理与通用知识处理模型,在数学推理和通用知识任务中表现优异。
大型语言模型
支持多种语言
Y
LoneStriker
37
3
Gemma 3 4b Reasoning
Apache-2.0
Gemma-3-4b推理是基于Transformer架构的语言模型,采用GRPO方法微调,专注于推理任务优化。
大型语言模型
Transformers

英语
G
ericrisco
53
2
Yixin Distill Qwen 72B
Apache-2.0
专为数学与通用推理优化的高性能蒸馏模型,基于Qwen2.5-72B通过强化学习提炼而成
大型语言模型
支持多种语言
Y
YiXin-AILab
38
26
Qwen 2.5 7B Reasoning
MIT
基于Qwen/Qwen2.5-7B-Instruct微调的版本,专门针对高级推理任务进行了优化
大型语言模型
Transformers

英语
Q
HyperX-Sen
70
3
Sombrero Opus 14B Sm5
Apache-2.0
基于Qwen 2.5 14B模态架构设计,提升编码效率和计算推理能力的模型
大型语言模型
Transformers

支持多种语言
S
prithivMLmods
43
2
Tinyr1 32B Preview
Apache-2.0
Tiny-R1-32B-Preview 是一个基于 Deepseek-R1-Distill-Qwen-32B 的推理模型,专注于数学、代码和科学领域,性能接近完整版 R1 模型。
大型语言模型
Transformers

T
qihoo360
3,292
327
Fluentlylm Prinum
MIT
流畅语言模型项目的首个独立模型,32.5B参数量的因果语言模型,支持多种语言和任务。
大型语言模型
Transformers

支持多种语言
F
fluently-lm
241
28
Mistral Small 24B Instruct 2501 Reasoning
Apache-2.0
基于Mistral-Small-24B-Instruct-2501微调的数学推理模型,优化了数学推理能力
大型语言模型
英语
M
yentinglin
1,689
54
Llama 3.1 Tulu 3.1 8B
Tülu 3 是领先的指令跟随模型家族,提供完全开源的数据、代码和训练方案作为现代技术的综合指南。
大型语言模型
Transformers

英语
L
allenai
3,643
33
Sky T1 32B Flash
Apache-2.0
基于Sky-T1-32B-Preview优化的32B推理模型偏好版本,能在保持准确性的同时显著缩短生成长度。
大型语言模型
Transformers

英语
S
NovaSky-AI
557
64
Internlm3 8b Instruct Gguf
Apache-2.0
InternLM3-8B-Instruct 模型的 GGUF 格式版本,适用于 llama.cpp 框架,支持多种量化版本。
大型语言模型
英语
I
internlm
1,072
26
Tulu3
其他
Tülu3是由艾伦人工智能研究所开发的新一代指令跟随模型家族,擅长标准聊天应用和复杂问题解决。
大型语言模型
T
cortexso
226
1
Internlm2 5 20b Chat
其他
InternLM2.5开源了200亿参数的基础模型和对话模型,具备卓越的推理能力和强大的工具调用能力。
大型语言模型
Transformers

I
internlm
1,349
93
Internlm2 5 7b Chat 1m
其他
InternLM2.5开源了面向实用场景的70亿参数基础模型与对话模型,具有卓越的推理能力和100万上下文窗口。
大型语言模型
Transformers

I
internlm
128
73
Glm 4 9b
其他
GLM-4-9B是智谱AI推出的最新开源预训练模型,在多项基准测试中超越Llama-3-8B,支持128K上下文长度和26种语言。
大型语言模型
Transformers

支持多种语言
G
THUDM
9,944
132
Rho Math 1b V0.1
MIT
Rho-1是一个专注于数学领域的语言模型,通过选择性语言建模(SLM)方法进行预训练,显著提升了数学问题解决的准确率。
大型语言模型
Transformers

英语
R
microsoft
1,451
15
UNA SimpleSmaug 34b V1beta
Apache-2.0
基于Smaug-34B的监督微调模型,专注于提升数学和推理能力,在34B规模模型中表现优异。
大型语言模型
Transformers

U
fblgit
18
21
Seallm 7B V2
其他
SeaLLM-7B-v2是面向东南亚语言的最先进多语言大模型,体积减半但在世界知识、数学推理、指令遵循等多语言任务上表现更优。
大型语言模型
Transformers

支持多种语言
S
SeaLLMs
1,993
66
Westseverus 7B DPO V2
Apache-2.0
WestSeverus-7B-DPO-v2是基于WestSeverus-7B训练的西湖家族模型,在多个DPO数据集上进行了训练,在基础数学问题上表现优异。
大型语言模型
Transformers

英语
W
PetroGPT
437
8
Neural Chat 7b V3 3
Apache-2.0
Neural-Chat-v3-3是英特尔基于Mistral-7B架构开发的70亿参数大语言模型,专注于数学推理和文本生成任务。
大型语言模型
Transformers

N
Intel
29.82k
78
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文