🚀 Kimi-Dev
Kimi-Dev-72B 是一款用于软件工程任务的开源编码大语言模型。它在 SWE-bench Verified 上取得了开源模型中的最优成绩,为软件开发和问题解决提供了强大的支持。
🚀 快速开始
以下是使用 Kimi-Dev-72B 模型的示例代码:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "moonshotai/Kimi-Dev-72B"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Give me a short introduction to large language model."
messages = [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
✨ 主要特性
- 卓越性能:Kimi-Dev-72B 在 SWE-bench Verified 上达到了 60.4% 的性能表现,超越了其他开源模型,创造了新的最优成绩。
- 强化学习优化:通过大规模强化学习进行优化,能够在 Docker 中自动修复真实仓库的问题,并仅在整个测试套件通过时获得奖励,确保解决方案的正确性和鲁棒性,符合实际开发标准。
- 易于获取:可在 Hugging Face 和 GitHub 上下载和部署,欢迎开发者和研究人员探索其能力并参与开发。
📄 许可证
本项目采用 MIT 许可证。
📚 详细文档
引用信息
如果您在研究中使用了 Kimi-Dev-72B,请使用以下 BibTeX 引用:
@misc{kimi_dev_72b_2025,
title = {Introducing Kimi-Dev: A Strong and Open-source Coding LLM for Issue Resolution},
author = {{Kimi-Dev Team}},
year = {2025},
month = {June},
url = {\url{https://www.moonshot.cn/Kimi-Dev}}
}
模型信息
属性 |
详情 |
模型类型 |
基于 Qwen/Qwen2.5 - 72B 的编码大语言模型 |
训练数据 |
暂未提及 |