K

Kernelllm GGUF

由 lmstudio-community 开发
KernelLLM是基于Llama 3.1 Instruct微调的模型,专门用于编写使用Triton的GPU内核。
下载量 214
发布时间 : 5/19/2025
模型介绍
内容详情
替代品

模型简介

该模型能够将PyTorch模块转换为Triton内核,并在KernelBench-Triton数据集上进行了评估,表现出竞争性或更优的性能。

模型特点

128k tokens上下文长度
支持超长上下文,适合处理复杂的内核生成任务
GPU内核代码生成
专门优化用于将PyTorch模块转换为高效的Triton GPU内核
高效性能
相比更大的模型,在内核生成任务上表现出竞争性或更优的性能

模型能力

文本生成
代码生成
GPU内核优化

使用案例

GPU编程
PyTorch到Triton转换
将PyTorch模块自动转换为高效的Triton GPU内核
生成的内核在性能上可与手工优化代码媲美
高性能计算
为科学计算和机器学习任务生成优化的GPU内核
提升计算密集型任务的执行效率