Devstral Small 2505 Bnb 4bit
Apache-2.0
Devstral是一款专为软件工程任务设计的智能大语言模型,由Mistral AI和All Hands AI合作开发,擅长代码库探索、多文件编辑和驱动软件工程代理。
大型语言模型
Safetensors
支持多种语言
D
unsloth
465
3
Devstral Small 2505 Unsloth Bnb 4bit
Apache-2.0
Devstral是由Mistral AI和All Hands AI合作开发的软件工程任务代理型大语言模型,擅长使用工具探索代码库、编辑多个文件以及驱动软件工程代理。
大型语言模型
Safetensors
支持多种语言
D
unsloth
873
3
Devstral Small 2505
Apache-2.0
Devstral是一款专为软件工程任务设计的智能大语言模型,由Mistral AI和All Hands AI合作开发,擅长代码探索、多文件编辑和驱动软件工程智能体。
大型语言模型
Safetensors
支持多种语言
D
unsloth
317
11
Devstral Small 2505
Apache-2.0
Devstral是由Mistral AI与All Hands AI合作开发的面向软件工程任务的智能大语言模型,擅长代码库探索、多文件编辑和驱动软件工程代理。
大型语言模型
Safetensors
支持多种语言
D
mistralai
102.17k
601
Bootes Qwen3 Coder Reasoning
Apache-2.0
基于Qwen3-4B架构微调的代码推理模型,专为高精度代码推理和结构化逻辑任务优化。
大型语言模型
Transformers

B
prithivMLmods
182
2
Nvidia OpenCodeReasoning Nemotron 32B IOI GGUF
Apache-2.0
这是NVIDIA OpenCodeReasoning-Nemotron-32B-IOI模型的量化版本,使用llama.cpp进行量化处理,适用于代码推理任务。
大型语言模型
支持多种语言
N
bartowski
1,272
2
THUDM GLM 4 32B 0414 6.5bpw H8 Exl2
MIT
GLM-4-32B-0414是GLM家族的新成员,参数规模达320亿,性能与GPT系列相当,支持本地部署。
大型语言模型
Transformers

支持多种语言
T
LatentWanderer
148
2
Phi 4 Mini Instruct.gguf
MIT
Phi-4-mini-instruct 是一个轻量级开源模型,专注于高质量、富含推理的数据,支持128K token的上下文长度。
大型语言模型
其他
P
Mungert
13.08k
25
Hicoder R1 Distill Gemma 27B
基于谷歌Gemma-3 27B微调的大型语言模型,专注思维链推理和代码生成任务,优化了GPU显存和系统内存管理。
大型语言模型
H
tonyli8623
13
2
Openthaigpt R1 32b Instruct
其他
OpenThaiGPT R1 32b是一款320亿参数的泰语推理模型,在泰语数学、逻辑和代码推理任务中表现优异,性能超越更大规模的模型。
大型语言模型
Transformers

支持多种语言
O
openthaigpt
403
3
Refact 1 6B Fim GGUF
Openrail
Refact-1.6B 是一个专注于代码生成的1.6B参数规模的大语言模型,在多种编程语言上表现优异。
大型语言模型
支持多种语言
R
Mungert
765
3
Viper Coder V1.5 R999
Apache-2.0
Viper-Coder-v1.5-r999 是基于 Qwen 2.5 14B 架构设计的大语言模型,专为编码和推理任务优化,具备强大的思维链推理和逻辑问题解决能力。
大型语言模型
Transformers

支持多种语言
V
prithivMLmods
1,314
1
Fluentlylm Prinum
MIT
流畅语言模型项目的首个独立模型,32.5B参数量的因果语言模型,支持多种语言和任务。
大型语言模型
Transformers

支持多种语言
F
fluently-lm
241
28
Sky T1 32B Preview GGUF
Sky-T1-32B-Preview是一个32B参数的大语言模型,经过llama.cpp的imatrix量化处理,适用于文本生成任务。
大型语言模型
英语
S
bartowski
1,069
81
Phi 3.5 MoE Instruct
MIT
Phi-3.5-MoE 是一个轻量级、最先进的开源模型,支持多语言,具有128K的上下文长度,专注于高质量、推理密集的数据。
大型语言模型
Transformers

P
microsoft
40.25k
558
Phi 3.5 Mini Instruct
MIT
Phi-3.5-mini 是一个轻量级、最先进的开源模型,基于 Phi-3 使用的数据集构建,支持 128K 的上下文长度,特别注重高质量、富含推理能力的数据。
大型语言模型
Transformers

其他
P
microsoft
354.64k
859
Codegeex4 All 9b
其他
CodeGeeX4-ALL-9B是CodeGeeX4系列模型的最新开源版本,基于GLM-4-9B持续训练,显著提升了代码生成能力。
大型语言模型
Transformers

支持多种语言
C
THUDM
294
251
Granite 8b Code Instruct 4k GGUF
Apache-2.0
IBM Granite 8B代码指令模型是一个专注于代码生成和解释的AI模型,支持多种编程语言,在HumanEval等基准测试中表现优异。
大型语言模型
其他
G
ibm-granite
979
11
Codestral 22B V0.1 Imat GGUF
其他
Codestral-22B-v0.1是Mistral AI开发的大型代码生成模型,支持80多种编程语言,适用于代码生成、解释和重构任务。
大型语言模型
其他
C
qwp4w3hyb
362
3
Codestral 22B V0.1
其他
Codestral-22B-v0.1是Mistral AI发布的22B参数编程语言模型,支持80多种编程语言的代码生成与理解任务
大型语言模型
Transformers

其他
C
mistralai
14.04k
1,246
Granite 34b Code Instruct 8k GGUF
Apache-2.0
IBM Granite 34B代码指令模型是一个专注于代码生成和解释的大语言模型,基于34B参数架构,支持多种编程语言。
大型语言模型
其他
G
ibm-granite
40
3
Phi 3 Small 8k Instruct
MIT
Phi-3-Small-8K-Instruct是一个70亿参数的轻量级开源模型,专注于高质量推理能力,支持8K上下文长度,适用于英语环境下的商业和研究用途。
大型语言模型
Transformers

其他
P
microsoft
22.92k
165
Code Llama 3 8B
基于Llama-3-8B训练的代码生成与数学问题解答模型,支持多种编程语言和详细代码解释
大型语言模型
Transformers

支持多种语言
C
ajibawa-2023
55
30
Codegemma 1.1 7b It
CodeGemma是基于Gemma构建的轻量级开源代码模型系列,专精代码生成与对话任务。
大型语言模型
Transformers

C
google
209
50
Granite 20b Code Instruct 8k
Apache-2.0
Granite-20B-Code-Instruct-8K是一个200亿参数的代码生成模型,基于Granite-20B-Code-Base-8K微调而来,专注于代码生成和指令遵循能力。
大型语言模型
Transformers

其他
G
ibm-granite
824
40
Granite 8b Code Instruct 4k
Apache-2.0
Granite-8B-Code-Instruct-4K是一个80亿参数的代码指令模型,基于Granite-8B-Code-Base-4K在多种允许许可的指令数据上进行微调,增强了其遵循指令的能力,包括逻辑推理和问题解决技能。
大型语言模型
Transformers

其他
G
ibm-granite
1,481
110
Granite 3b Code Instruct 2k
Apache-2.0
Granite-3B-Code-Instruct-2K是基于Granite-3B-Code-Base-2K微调的30亿参数模型,增强了指令遵循能力,特别擅长代码生成和逻辑推理任务。
大型语言模型
Transformers

其他
G
ibm-granite
1,883
36
Granite 3b Code Base 2k
Apache-2.0
Granite-3B-Code-Base-2K是IBM研究院开发的专为代码生成任务设计的仅解码器模型,具有3B参数规模,支持116种编程语言。
大型语言模型
Transformers

其他
G
ibm-granite
711
37
Aixcoder 7b
aiXcoder-7B 是一个专注于代码生成和理解的大语言模型,经过1.2T独特令牌训练,在代码补全和多语言代码生成任务上表现优异。
大型语言模型
Transformers

A
aiXcoder
17
22
Aixcoder 7b Base
aiXcoder-7B Base是一个专注于代码补全和生成任务的7B参数大语言模型,经过1.2T独特代码数据训练,在真实开发场景中表现优异。
大型语言模型
Transformers

A
aiXcoder
99
55
Codegemma 7b
CodeGemma是基于Gemma构建的一系列轻量级开源代码模型,专注于代码补全和生成任务。
大型语言模型
Transformers

C
google
15.29k
186
Codegemma 2b
CodeGemma是基于Gemma构建的轻量级开源代码模型,专注于代码补全和生成任务。
大型语言模型
Transformers

C
google
4,685
79
Codegemma 7b It GGUF
CodeGemma是基于Gemma构建的轻量级开源代码模型系列,专注于代码补全、生成和对话任务。
大型语言模型
C
google
46
56
Codegemma 2b GGUF
CodeGemma是基于Gemma构建的轻量级开源代码模型系列,包含文本到文本和文本到代码的解码器模型,专精代码补全与生成任务。
大型语言模型
C
google
31
25
Starchat2 15b V0.1
StarChat2是基于StarCoder2微调的160亿参数编程助手模型,擅长对话和代码生成任务
大型语言模型
Transformers

S
HuggingFaceH4
4,196
111
Ernie Code 560m
MIT
ERNIE-Code是一个统一的大型语言模型,连接了116种自然语言和6种编程语言,支持多种跨语言任务。
大型语言模型
Transformers

E
baidu
69
9
Magicoder
基于 Mistral-7B 微调的代码生成适配器,专注于多语言编程任务解决方案生成
大型语言模型
M
predibase
257
11
Codeninja 1.0 OpenChat 7B
MIT
代码忍者是知名模型openchat/openchat-3.5-1210的增强版本,通过在两个包含超过40万条编码指令的大规模数据集上进行监督微调训练而成。
大型语言模型
Transformers

C
beowolx
2,998
105
Poro 34B
Apache-2.0
Poro是一个340亿参数的多语言大模型,专注于芬兰语、英语和代码处理,采用Apache 2.0许可证开源。
大型语言模型
Transformers

支持多种语言
P
LumiOpen
1,908
116
Codefuse 13B
其他
CodeFuse-13B是基于GPT-NeoX框架训练的130亿参数代码生成模型,支持40多种编程语言,能处理长达4096字符的代码序列。
大型语言模型
Transformers

C
codefuse-ai
31
49
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文