Opencodereasoning Nemotron 14B GGUF
Apache-2.0
OpenCodeReasoning-Nemotron-14B 是基于 Qwen2.5-14B-Instruct 进行后训练的大型语言模型,专为代码生成推理优化,支持32K tokens上下文长度。
大型语言模型
支持多种语言
O
Mungert
507
1
Opencodereasoning Nemotron 32B GGUF
Apache-2.0
OpenCodeReasoning-Nemotron-32B 是基于 Qwen2.5-32B-Instruct 的代码生成推理模型,支持32K tokens上下文长度,适用于商业和非商业用途。
大型语言模型
支持多种语言
O
Mungert
633
1
Qwen3 30B A3B Python Coder
基于Qwen/Qwen3-30B-A3B微调的Python编程专用模型,专注于代码生成任务
大型语言模型
Transformers

Q
burtenshaw
64
5
Opencodereasoning Nemotron 7B
Apache-2.0
OpenCodeReasoning-Nemotron-7B 是基于 Qwen2.5-7B-Instruct 开发的大型语言模型,专注于代码生成和推理任务,支持 32K tokens 的上下文长度。
大型语言模型
Transformers

支持多种语言
O
nvidia
5,410
30
Pycodet5
Apache-2.0
PyCodeT5是CodeT5模型的专用变体,专门针对生成和理解Python函数进行了微调,能够将自然语言描述转换为功能性Python代码。
大型语言模型
Transformers

支持多种语言
P
S-Dreamer
31
1
Phi 3 Mini 4k Python
Apache-2.0
基于unsloth/Phi-3-mini-4k-instruct-bnb-4bit微调的Python代码生成模型,使用Unsloth和TRL库训练,速度提升2倍
大型语言模型
英语
P
theprint
175
1
Codellama 34b Python Hf
Code Llama是由Meta发布的预训练生成文本模型系列,专为代码生成与理解任务设计。
大型语言模型
Transformers

其他
C
meta-llama
414
9
Codellama 13b Python Hf
Code Llama是由Meta发布的70亿到340亿参数规模的预训练及微调生成文本模型系列,本模型为130亿参数Python专用版本
大型语言模型
Transformers

其他
C
meta-llama
636
7
Codellama 7b Python Hf
Code Llama是由Meta开发的70亿参数代码生成模型系列,本版本专门针对Python语言优化
大型语言模型
Transformers

其他
C
meta-llama
2,271
22
Codellama 70B Python GPTQ
CodeLlama 70B Python 是一个专注于 Python 编程语言的大型语言模型,基于 Llama 2 架构,专为代码生成和补全任务优化。
大型语言模型
Transformers

其他
C
TheBloke
89
19
Tinycode Python
MIT
该模型基于bigcode/starcoderdata数据集中的58个Python文件中的4个进行训练,主要用于代码相关任务。
大型语言模型
Transformers

支持多种语言
T
blueapple8259
22
1
Tinymistral V2 Pycoder Instruct 248m
Apache-2.0
基于TinyMistral-248M-v2-Instruct开发的Python专用代码生成模型,支持指令格式的Python代码生成
大型语言模型
Transformers

其他
T
jtatman
16
3
Tinyllama Python Gguf
Apache-2.0
这是rahuldshetty/tinyllama-python的量化GGUF模型文件,基于unsloth/tinyllama-bnb-4bit微调,专注于Python代码生成任务。
大型语言模型
支持多种语言
T
rahuldshetty
32
1
Zephyr Python Ru Merged
MIT
基于Zephyr-7b-beta的俄语编程增强模型,专注于Python代码生成任务
大型语言模型
Transformers

支持多种语言
Z
MexIvanov
29
1
Phi 1
MIT
Phi-1是一个13亿参数的Transformer模型,专为Python基础编程设计,在HumanEval基准测试中准确率超过50%
大型语言模型
Transformers

支持多种语言
P
microsoft
7,907
211
Llama 2 7b Int4 GPTQ Python Code 20k
Gpl-3.0
这是Llama 2 7B模型的4位GPTQ量化版本,专门针对Python代码生成任务进行了微调
大型语言模型
Transformers

其他
L
edumunozsala
22
1
Evolcodellama 7b
Apache-2.0
基于CodeLlama-7b-hf模型,采用QLoRA(4比特精度)在Evol-Instruct-Python-1k数据集上微调而成的代码生成模型
大型语言模型
Transformers

E
mlabonne
34
6
Codellama 34b Python Hf
代码骆驼(Code Llama)是Meta推出的340亿参数Python专用代码生成模型,基于Llama 2架构优化,专注于Python代码合成与理解
大型语言模型
Transformers

其他
C
codellama
2,135
96
Codellama 13b Python Hf
Code Llama是Meta开发的代码生成与理解大模型系列,本版本为130亿参数Python专用变体
大型语言模型
Transformers

其他
C
codellama
2,230
51
Codet5p 220m Py
Bsd-3-clause
CodeT5+是一个开源代码大语言模型家族,采用编码器-解码器架构,支持多种代码理解与生成任务。
大型语言模型
Transformers

C
Salesforce
961
15
Codet5p 770m Py
Bsd-3-clause
CodeT5+是一个开源代码大语言模型家族,采用编码器-解码器架构,支持广泛的代码理解与生成任务。
大型语言模型
Transformers

C
Salesforce
4,564
20
Tiny Starcoder Py
Openrail
这是一个拥有1.64亿参数的Python代码生成模型,基于StarCoder架构,专门针对Python代码生成任务进行了优化。
大型语言模型
Transformers

T
bigcode
1,886
74
Codet5 Small Custom Functions Dataset Python
Apache-2.0
基于Salesforce/codet5-small微调的Python代码生成模型,专注于自定义函数生成任务
大型语言模型
Transformers

C
sharoz
43
1
Codegen 350M Mono Custom Functions Dataset Python V2
Bsd-3-clause
基于Salesforce/codegen-350M-mono微调的Python代码生成模型,专注于自定义函数生成
大型语言模型
Transformers

C
sharoz
130
2
Codet5 Large Ntp Py
Bsd-3-clause
CodeT5是基于Python语言NTP目标预训练的大规模编码器-解码器模型,专注于代码理解与生成任务
大型语言模型
Transformers

C
Salesforce
217
27
Codegen 16B Mono
Bsd-3-clause
CodeGen-Mono 16B是一个用于程序合成的自回归语言模型,专注于根据英语提示生成可执行代码。
大型语言模型
Transformers

C
Salesforce
227
126
Codegen 6B Mono
Bsd-3-clause
CodeGen是用于程序合成的自回归语言模型系列,CodeGen-Mono 6B是基于Python编程语言数据集进一步预训练的6B参数模型。
大型语言模型
Transformers

C
Salesforce
600
38
Codegen 350M Mono
Bsd-3-clause
CodeGen是一系列用于程序合成的自回归语言模型,基于Python编程语言数据集预训练。
大型语言模型
Transformers

C
Salesforce
23.59k
93
Python Gpt2 Large Issues 128
Apache-2.0
基于bert-base-uncased微调的GPT-2大型模型,专注于Python代码相关问题的处理
大型语言模型
Transformers

P
aytugkaya
15
0
Genji Python 6B Split
Apache-2.0
基于GPT-J 6B微调的Python代码生成模型,专注于Python编程辅助
大型语言模型
Transformers

英语
G
baffo32
16
0
Gpt Neo 125M Apps All
MIT
基于GPT-Neo-125M模型在APPS数据集上微调的编程任务解决模型
大型语言模型
G
flax-community
17
2
Codeparrot
CodeParrot 是一个基于GPT-2架构(15亿参数)训练的Python代码生成模型,专注于Python代码的自动生成。
大型语言模型
Transformers

其他
C
codeparrot
1,342
105
Nlgp Docstring
Apache-2.0
基于Jupyter笔记本训练的Python代码生成模型,可根据自然语言意图在代码上下文中合成代码
大型语言模型
Transformers

支持多种语言
N
Nokia
45
2
Gpyt
MIT
GPyT是一个基于80GB纯Python代码从头训练的GPT2模型,专注于Python代码生成任务。
大型语言模型
Transformers

其他
G
Sentdex
21
22
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文