Python优化
Opencodereasoning Nemotron 32B
Apache-2.0
OpenCodeReasoning-Nemotron-32B 是一个基于 Qwen2.5-32B-Instruct 的大型语言模型,专门针对代码生成推理能力进行训练,支持 32K token 的上下文长度,可自由用于商业/非商业用途。
大型语言模型
Transformers
支持多种语言
O
nvidia
1,176
64
Codeparrot Ds Distilgpt2
Apache-2.0
基于distilgpt2微调的代码生成模型,适用于代码相关任务
大型语言模型
Transformers
C
zhuchi76
35
1
Codellama 34b Hf
Code Llama是Meta发布的包含70亿到340亿参数的代码生成与理解模型系列,本版本为340亿参数基础模型
大型语言模型
Transformers
其他
C
meta-llama
492
15
Codellama 7b Instruct Hf
Code Llama是Meta发布的代码生成与理解模型系列,包含7B至34B参数的预训练与微调版本。
大型语言模型
Transformers
其他
C
meta-llama
28.32k
48
Wizardcoder Python 13B V1.0
WizardCoder是通过Evol-Instruct方法增强的代码大语言模型,专注于代码生成任务。
大型语言模型
Transformers
其他
W
WizardLMTeam
681
106
Wizardcoder Python 34B V1.0
WizardCoder-Python-34B-V1.0 是一个通过Evol-Instruct方法增强的代码大语言模型,专注于Python代码生成任务。
大型语言模型
Transformers
其他
W
WizardLMTeam
311
765
Codellama 13b Instruct Hf
CodeLlama-13b-Instruct是Meta发布的130亿参数指令调优代码生成模型,专为安全指令跟随和代码助手应用设计
大型语言模型
Transformers
其他
C
codellama
206.94k
147
Codellama 7b Instruct Hf
CodeLlama-7b-Instruct是基于70亿参数代码生成模型优化的指令跟随版本,专为安全部署和代码助手应用设计
大型语言模型
Transformers
其他
C
codellama
60.37k
230
Codellama 7b Hf
Code Llama是由Meta开发的7B参数代码生成模型,支持通用代码合成与理解
大型语言模型
Transformers
其他
C
codellama
64.54k
354