Acereason Nemotron 7B
其他
通过强化学习训练的数学与代码推理模型,基于DeepSeek-R1-Distilled-Qwen-7B,在数学和代码推理任务上表现优异
大型语言模型
Transformers

A
nvidia
4,278
10
Marin 8b Instruct
Apache-2.0
Marin 8B是一个开源的8B参数规模的大型语言模型,基于Llama架构开发,支持英语文本生成任务。
大型语言模型
英语
M
marin-community
239
1
Seed Coder 8B Reasoning Bf16
MIT
Seed-Coder是一个8B规模的开源代码模型家族,包含基础版、指导版和推理版。
大型语言模型
Transformers

S
ByteDance-Seed
4,382
9
Falcon H1 34B Instruct GPTQ Int8
其他
猎鹰-H1是由TII开发的高性能混合架构语言模型,结合了Transformers和Mamba架构的优势,支持英语和多语言任务。
大型语言模型
Transformers

F
tiiuae
105
3
Andrewzh Absolute Zero Reasoner Coder 14b GGUF
基于andrewzh的Absolute_Zero_Reasoner-Coder-14b模型,使用llama.cpp进行imatrix量化的版本,适用于推理和代码生成任务。
大型语言模型
A
bartowski
1,995
5
Falcon H1 1.5B Base
其他
Falcon-H1是由TII开发的混合Transformers + Mamba架构的仅解码因果模型,支持英语和多语言任务。
大型语言模型
Transformers

支持多种语言
F
tiiuae
454
2
Phi 4 Reasoning Plus
MIT
Phi-4推理增强版是微软研究院开发的140亿参数开源推理模型,通过监督微调和强化学习优化,专注于数学、科学和编程领域的高级推理能力。
大型语言模型
Transformers

支持多种语言
P
unsloth
189
2
GLM 4 9B 0414 GGUF
MIT
GLM-4-9B-0414是GLM家族中的轻量级成员,拥有90亿参数,在数学推理和通用任务上表现出色,为资源受限场景提供了高效的解决方案。
大型语言模型
支持多种语言
G
unsloth
4,291
9
Granite 4.0 Tiny Preview
Apache-2.0
Granite-4-Tiny-Preview 是一个拥有70亿参数的细粒度混合专家(MoE)指令微调模型,基于 Granite-4.0-Tiny-Base-Preview 开发,适用于通用指令跟随任务。
大型语言模型
Transformers

G
ibm-granite
7,906
108
Olympiccoder 7B GGUF
Apache-2.0
OlympicCoder-7B是基于Qwen2.5-Coder-7B-Instruct优化的代码生成模型,采用IQ-DynamicGate超低比特量化技术,专为内存受限环境设计。
大型语言模型
英语
O
Mungert
849
3
Qwen2.5 Recursive Coder 14B Instruct
Apache-2.0
基于Qwen2.5架构的14B参数规模代码生成与理解模型,通过Model Stock方法融合多个专业编码模型而成
大型语言模型
Transformers

Q
spacematt
39
2
Deepcoder 14B Preview GGUF
MIT
采用IQ-DynamicGate技术的超低位量化(1-2比特)模型,适用于内存受限设备和边缘计算场景
大型语言模型
英语
D
Mungert
1,764
6
Qwen2.5 CompositeFlow Coder 14B Instruct
Apache-2.0
基于Qwen2.5-Coder-14B-Instruct基础模型,通过mergekit工具合并多个专业编码模型的混合模型
大型语言模型
Transformers

Q
spacematt
31
3
GLM 4 32B Base 0414
MIT
GLM-4-32B-Base-0414是320亿参数规模的大语言模型,基于15T高质量数据预训练,支持中英双语,在代码生成、函数调用等任务表现优异。
大型语言模型
Transformers

支持多种语言
G
THUDM
995
21
Burtenshaw GemmaCoder3 12B GGUF
基于burtenshaw/GemmaCoder3-12B的量化版本,专为代码生成任务优化,支持多种量化级别以适应不同硬件需求。
大型语言模型
B
bartowski
9,066
8
Z1 7B
MIT
Z1是一个基于Qwen2.5-Coder-7B-Instruct的大语言模型,专注于通过思维迁移进行高效推理。
大型语言模型
Transformers

Z
efficientscaling
125
18
Qwen2.5 Coder 32B YOYO
Qwen2.5-Coder-32B-instruct是基于Qwen2.5-Coder-32B的指令微调版本,专注于代码生成和理解任务。
大型语言模型
Transformers

Q
YOYO-AI
14
2
YOYO O1 32B V2
融合了开源社区最顶尖的32B推理模型与代码模型,采用SCE合并技术以Qwen2.5-Coder-32B为基础模型进行融合。
大型语言模型
Transformers

Y
YOYO-AI
29
2
Qwq Coder 32B
基于Qwen系列模型合并的32B参数大语言模型,专注于代码生成与理解任务
大型语言模型
Transformers

Q
YOYO-AI
490
7
Gemma 3 4b It Codeforces SFT
该模型是基于google/gemma-3-4b-it在codeforces-cots数据集上微调得到的版本,主要用于代码相关任务。
大型语言模型
Transformers

G
qgallouedec
48
3
Pocketdoc Dans PersonalityEngine V1.2.0 24b GGUF
Apache-2.0
基于PocketDoc/Dans-PersonalityEngine-V1.2.0-24b的Llamacpp imatrix量化版本,支持多种量化选项,适用于文本生成任务。
大型语言模型
支持多种语言
P
bartowski
16.73k
23
Dolphin3.0 Llama3.2 3B GGUF
基于Llama3.2架构的3B参数大语言模型,支持英文文本生成任务,采用llama.cpp进行imatrix量化
大型语言模型
英语
D
bartowski
5,665
15
Opencerebrum 1.0 7b SFT GGUF
Apache-2.0
OpenCerebrum-1.0-7b-SFT是一个基于Locutusque/OpenCerebrum-1.0-7b-SFT的静态量化模型,支持多种量化版本,适用于代码生成、数学、化学、生物学等领域的文本生成和问答任务。
大型语言模型
支持多种语言
O
mradermacher
162
1
Qwen2.5 Coder 7B Instruct Uncensored
MIT
基于Qwen2.5-Coder-7B-Instruct优化的版本,专注于消除拒绝行为
大型语言模型
Transformers

支持多种语言
Q
BlossomsAI
23
1
Qwen2.5 Coder 1.5B Instruct Abliterated GGUF
Apache-2.0
基于Qwen2.5-Coder-1.5B-Instruct-abliterated模型的Llamacpp imatrix量化版本,适用于代码生成和文本生成任务。
大型语言模型
英语
Q
bartowski
729
1
Granite 3.0 3b A800m Instruct
Apache-2.0
IBM开发的30亿参数指令微调语言模型,基于Granite-3.0架构,支持多语言任务和商业应用
大型语言模型
Transformers

G
ibm-granite
5,240
18
Granite 3.0 8b Instruct
Apache-2.0
Granite-3.0-8B-Instruct是一个基于Granite-3.0-8B-Base微调的80亿参数模型,采用多种开源指令数据集和内部合成的数据集组合进行训练。
大型语言模型
Transformers

G
ibm-granite
24.29k
201
Yi Coder 1.5B Chat
Apache-2.0
Yi-Coder-1.5B 是一个开源代码语言模型,参数规模为15亿,支持52种编程语言,具备128K tokens的长文本理解能力。
大型语言模型
Transformers

Y
01-ai
295
34
Powerlm 3b
Apache-2.0
PowerLM-3B是一个30亿参数的小型语言模型,采用Power学习率调度器训练,在自然语言多选、代码生成和数学推理等多个基准测试中表现优异。
大型语言模型
Transformers

P
ibm-research
11.07k
20
API Pack Model
基于CodeLlama-13b-hf架构微调的大语言模型,专门针对API调用生成任务优化
大型语言模型
Transformers

A
apipack
16
1
Nxcode CQ 7B Orpo
其他
基于Qwen/CodeQwen1.5-7B模型,采用无参考模型的单体偏好优化方法在10万条高质量排序数据上进行微调的代码生成模型
大型语言模型
Transformers

其他
N
NTQAI
3,387
130
Chicka Mixtral 3x7b
MIT
基于3个Mistral架构模型的专家混合大语言模型,擅长对话、代码和数学任务
大型语言模型
Transformers

C
Chickaboo
77
3
Mixtral AI CyberCoder 7b
Apache-2.0
这是一个专注于代码生成和应用程序开发的合并模型,基于多个高质量模型融合而成
大型语言模型
Transformers

其他
M
LeroyDyer
46
4
Opencodeinterpreter DS 33B GGUF
OpenCodeInterpreter是一套开源代码生成系统,通过整合代码执行与迭代优化功能提升代码生成能力
大型语言模型
支持多种语言
O
LoneStriker
278
28
Deepmagic Coder 7b Alt
其他
DeepMagic-Coder-7b 是 DeepSeek-Coder 和 Magicoder 模型的合并版本,专注于代码生成和编程任务。
大型语言模型
Transformers

D
rombodawg
61
7
Tinymistral 6x248M
Apache-2.0
TinyMistral-6x248M是通过LazyMergekit工具融合6个TinyMistral变体的混合专家系统,在nampdn-ai/mini-peS2o数据集上进行了预训练
大型语言模型
Transformers

T
M4-ai
51
14
Everyone Coder 33b Base
其他
EveryoneLLM系列模型由社区打造,为社区服务。
大型语言模型
Transformers

E
rombodawg
15
19
Phixtral 2x2 8
MIT
phixtral-2x2_8 是首个基于两个 microsoft/phi-2 模型构建的混合专家模型(MoE),其表现优于每个单独的专家模型。
大型语言模型
Transformers

支持多种语言
P
mlabonne
178
148
Openhermes Llama 3B
Apache-2.0
基于OpenLlama-3B微调的指令跟随模型,专为角色扮演、指令跟随和代码生成优化
大型语言模型
Transformers

英语
O
cfahlgren1
81
3
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型
支持多种语言
P
TheBloke
41.5M
205
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文