模型简介
模型特点
模型能力
使用案例
🚀 Midm-2.0-Base-Instruct GGUF模型
Midm-2.0-Base-Instruct GGUF模型是用于文本生成的模型,基于transformers库,在多方面具有出色表现,能为用户提供高效的文本生成服务。
🚀 快速开始
以下是使用该模型进行对话推理的代码片段:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig
model_name = "K-intelligence/Midm-2.0-Base-Instruct"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
trust_remote_code=True,
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
generation_config = GenerationConfig.from_pretrained(model_name)
prompt = "KT에 대해 소개해줘"
# message for inference
messages = [
{"role": "system",
"content": "Mi:dm(믿:음)은 KT에서 개발한 AI 기반 어시스턴트이다."},
{"role": "user", "content": prompt}
]
input_ids = tokenizer.apply_chat_template(
messages,
tokenize=True,
add_generation_prompt=True,
return_tensors="pt"
)
output = model.generate(
input_ids.to("cuda"),
generation_config=generation_config,
eos_token_id=tokenizer.eos_token_id,
max_new_tokens=128,
do_sample=False,
)
print(tokenizer.decode(output[0]))
⚠️ 重要提示
transformers
库的版本应在4.45.0
或更高。
✨ 主要特性
- 韩国中心AI模型:Mi:dm 2.0是使用KT专有技术开发的“以韩国为中心的AI”模型,深入内化了韩国社会独特的价值观、认知框架和常识推理,能更好地理解和反映韩国社会的社会文化规范和价值观。
- 多版本发布:提供Mi:dm 2.0 Base和Mi:dm 2.0 Mini两个版本,分别适用于不同的应用场景,满足多样化的需求。
- 量化优化:采用新的量化方法,选择性地提高关键层的精度,在一定程度上改善了模型在低比特深度下的性能。
📦 安装指南
本地运行
我们提供了使用llama.cpp、LM Studio和Ollama在本地运行Mi:dm 2.0的详细说明。更多信息请查看我们的 GitHub。
部署
使用 vLLM (>=0.8.0
) 以OpenAI兼容的API来服务Mi:dm 2.0:
vllm serve K-intelligence/Midm-2.0-Base-Instruct
💻 使用示例
在Friendli.AI上运行
你可以通过Friendli.AI
立即试用我们的模型。只需点击Deploy
,然后点击Friendli Endpoints
。
⚠️ 重要提示
请注意,在进行第五次聊天交互后,需要登录
Friendli.AI
。
在本地机器上运行
我们提供了使用llama.cpp、LM Studio和Ollama在本地机器上运行Mi:dm 2.0的详细说明。更多信息请查看我们的 GitHub。
📚 详细文档
模型生成细节
该模型使用 llama.cpp 在提交版本 21c02174
时生成。
量化超越IMatrix
我一直在试验一种新的量化方法,该方法选择性地提高关键层的精度,超越了默认IMatrix配置提供的精度。在我的测试中,标准IMatrix量化在低比特深度下表现不佳,尤其是对于专家混合(MoE)模型。为了解决这个问题,我使用llama.cpp
中的--tensor-type
选项手动将重要层的精度提高。你可以在以下链接查看实现:
👉 使用llama.cpp进行层提升
虽然这确实会增加模型文件的大小,但它显著提高了给定量化级别的精度。
评估
韩语评估
模型 | 社会与文化 - K-Refer* | 社会与文化 - K-Refer-Hard* | 社会与文化 - Ko-Sovereign* | 社会与文化 - HAERAE | 社会与文化 - 平均 | 常识 - KMMLU | 常识 - Ko-Sovereign* | 常识 - 平均 | 指令遵循 - Ko-IFEval | 指令遵循 - Ko-MTBench | 指令遵循 - 平均 |
---|---|---|---|---|---|---|---|---|---|---|---|
Qwen3-4B | 53.6 | 42.9 | 35.8 | 50.6 | 45.7 | 50.6 | 42.5 | 46.5 | 75.9 | 63.0 | 69.4 |
Exaone-3.5-2.4B-inst | 64.0 | 67.1 | 44.4 | 61.3 | 59.2 | 43.5 | 42.4 | 43.0 | 65.4 | 74.0 | 68.9 |
Mi:dm 2.0-Mini-inst | 66.4 | 61.4 | 36.7 | 70.8 | 58.8 | 45.1 | 42.4 | 43.8 | 73.3 | 74.0 | 73.6 |
Qwen3-14B | 72.4 | 65.7 | 49.8 | 68.4 | 64.1 | 55.4 | 54.7 | 55.1 | 83.6 | 71 | 77.3 |
Llama-3.1-8B-inst | 43.2 | 36.4 | 33.8 | 49.5 | 40.7 | 33.0 | 36.7 | 34.8 | 60.1 | 57 | 58.5 |
Exaone-3.5-7.8B-inst | 71.6 | 69.3 | 46.9 | 72.9 | 65.2 | 52.6 | 45.6 | 49.1 | 69.1 | 79.6 | 74.4 |
Mi:dm 2.0-Base-inst | 89.6 | 86.4 | 56.3 | 81.5 | 78.4 | 57.3 | 58.0 | 57.7 | 82 | 89.7 | 85.9 |
模型 | 理解 - K-Prag* | 理解 - K-Refer-Hard* | 理解 - Ko-Best | 理解 - Ko-Sovereign* | 理解 - 平均 | 推理 - Ko-Winogrande | 推理 - Ko-Best | 推理 - LogicKor | 推理 - HRM8K | 推理 - 平均 |
---|---|---|---|---|---|---|---|---|---|---|
Qwen3-4B | 73.9 | 56.7 | 91.5 | 43.5 | 66.6 | 67.5 | 69.2 | 5.6 | 56.7 | 43.8 |
Exaone-3.5-2.4B-inst | 68.7 | 58.5 | 87.2 | 38.0 | 62.5 | 60.3 | 64.1 | 7.4 | 38.5 | 36.7 |
Mi:dm 2.0-Mini-inst | 69.5 | 55.4 | 80.5 | 42.5 | 61.9 | 61.7 | 64.5 | 7.7 | 39.9 | 37.4 |
Qwen3-14B | 86.7 | 74.0 | 93.9 | 52.0 | 76.8 | 77.2 | 75.4 | 6.4 | 64.5 | 48.8 |
Llama-3.1-8B-inst | 59.9 | 48.6 | 77.4 | 31.5 | 51.5 | 40.1 | 26.0 | 2.4 | 30.9 | 19.8 |
Exaone-3.5-7.8B-inst | 73.5 | 61.9 | 92.0 | 44.0 | 67.2 | 64.6 | 60.3 | 8.6 | 49.7 | 39.5 |
Mi:dm 2.0-Base-inst | 86.5 | 70.8 | 95.2 | 53.0 | 76.1 | 75.1 | 73.0 | 8.6 | 52.9 | 44.8 |
*
表示KT专有的评估资源。
英语评估
模型 | 指令 - IFEval | 推理 - BBH | 推理 - GPQA | 推理 - MuSR | 推理 - 平均 | 数学 - GSM8K | 编码 - MBPP+ | 常识 - MMLU-pro | 常识 - MMLU | 常识 - 平均 |
---|---|---|---|---|---|---|---|---|---|---|
Qwen3-4B | 79.7 | 79.0 | 39.8 | 58.5 | 59.1 | 90.4 | 62.4 | - | 73.3 | 73.3 |
Exaone-3.5-2.4B-inst | 81.1 | 46.4 | 28.1 | 49.7 | 41.4 | 82.5 | 59.8 | - | 59.5 | 59.5 |
Mi:dm 2.0-Mini-inst | 73.6 | 44.5 | 26.6 | 51.7 | 40.9 | 83.1 | 60.9 | - | 56.5 | 56.5 |
Qwen3-14B | 83.9 | 83.4 | 49.8 | 57.7 | 63.6 | 88.0 | 73.4 | 70.5 | 82.7 | 76.6 |
Llama-3.1-8B-inst | 79.9 | 60.3 | 21.6 | 50.3 | 44.1 | 81.2 | 81.8 | 47.6 | 70.7 | 59.2 |
Exaone-3.5-7.8B-inst | 83.6 | 50.1 | 33.1 | 51.2 | 44.8 | 81.1 | 79.4 | 40.7 | 69.0 | 54.8 |
Mi:dm 2.0-Base-inst | 84.0 | 77.7 | 33.5 | 51.9 | 54.4 | 91.6 | 77.5 | 53.3 | 73.7 | 63.5 |
教程
为了帮助我们的最终用户轻松使用Mi:dm 2.0,我们在 GitHub 上提供了全面的教程。
🔧 技术细节
量化方法
使用新的量化方法,通过llama.cpp
中的--tensor-type
选项手动提高关键层的精度,以改善模型在低比特深度下的性能。
模型版本
- Mi:dm 2.0 Base:一个115亿参数的密集模型,旨在平衡模型大小和性能。它通过应用深度扩展(DuS)方法扩展了一个80亿规模的模型,适用于需要性能和通用性的实际应用。
- Mi:dm 2.0 Mini:一个轻量级的23亿参数密集模型,针对设备端环境和GPU资源有限的系统进行了优化。它通过剪枝和蒸馏从基础模型派生而来,以实现紧凑的部署。
📄 许可证
Mi:dm 2.0根据 MIT许可证 授权。
联系信息
Mi:dm 2.0技术咨询:midm-llm@kt.com
限制
- 语言限制:两个Mi:dm 2.0模型的训练数据主要由英语和韩语组成,不保证对其他语言的理解和生成能力。
- 专业领域限制:该模型不保证在需要专业知识的领域(如法律、医学或金融)提供可靠的建议。
- 内容准确性:尽管研究人员努力从训练数据中排除不道德的内容,但模型仍可能产生不适当的表达或事实不准确的内容。
🚀 如果你觉得这些模型有用
帮助我测试我的 AI驱动的量子网络监控助手 进行 量子就绪安全检查: 👉 量子网络监控
量子网络监控服务的完整开源代码可在我的GitHub仓库(名称中包含NetworkMonitor的仓库)中找到:量子网络监控源代码。如果你想自己进行量化,还可以找到我用于量化模型的代码 GGUFModelBuilder。
💬 如何测试: 选择一个 AI助手类型:
TurboLLM
(GPT-4.1-mini)HugLLM
(Hugginface开源模型)TestLLM
(仅实验性CPU)
我正在测试的内容
我正在挑战小型开源模型在AI网络监控方面的极限,具体包括:
- 针对实时网络服务的 函数调用
- 模型可以多小 同时仍能处理:
- 自动 Nmap安全扫描
- 量子就绪检查
- 网络监控任务
🟡 TestLLM – 当前的实验模型(在Hugging Face Docker空间的2个CPU线程上运行llama.cpp):
- ✅ 零配置设置
- ⏳ 30秒加载时间(推理速度慢,但 无API成本)。由于成本低,没有令牌限制。
- 🔧 寻求帮助! 如果你对 边缘设备AI 感兴趣,让我们合作。



