M

Mellum 4b Sft Python

由 JetBrains 开发
JetBrains首个开源大语言模型(LLM)的微调版本,专为Python代码相关任务优化,支持8192 token上下文窗口。
下载量 830
发布时间 : 4/30/2025
模型介绍
内容详情
替代品

模型简介

基于4万亿token预训练,针对Python代码补全微调的40亿参数模型,适用于代码生成、补全和理解任务。

模型特点

长上下文支持
支持8192 token的上下文窗口,适合处理大型代码文件
多场景优化
针对单行/多行代码补全、随机片段填充等不同场景专门优化
混合部署能力
支持云端推理(vLLM)和本地部署(llama.cpp/Ollama)

模型能力

Python代码生成
多文件上下文代码补全
代码片段填充
API调用生成
算法实现生成

使用案例

开发工具
IDE智能代码建议
集成到开发环境中提供实时代码补全
教育
编程教学辅助
生成教学示例代码或解释编程概念
代码分析
代码理解研究
用于代码语义理解和模式识别研究