Q

Qwen2.5 MOE 2x 4x 6x 8x 7B Power CODER 19B 30B 42B 53B Gguf

由 DavidAU 开发
包含44种混合专家(MOE)量化模型的仓库,适用于多种编程语言的编码任务,参数规模从6B到60B。
下载量 8,144
发布时间 : 7/4/2025

模型简介

本仓库提供多种MOE量化模型,主要用于编码和编程任务,支持多种主流和小众编程语言。模型基于Qwen2.5和Mistral架构,具有稳定性和工具使用能力。

模型特点

多语言支持
涵盖所有主流和许多小众的编程语言。
多种参数规模
参数范围从6B到60B,满足不同需求。
MOE架构
多数为Qwen2.5 MOE模型,部分为Mistral MOE编码器。
稳定可靠
模型均为'Class 1'MOE,完全稳定。
支持工具使用
可在编码过程中使用相关工具。
推理功能
部分模型支持推理功能,如Mistral的部分模型。

模型能力

代码生成
编程辅助
多语言代码理解
代码推理
工具集成

使用案例

软件开发
自动化代码生成
根据需求描述生成相应编程语言的代码片段。
提高开发效率,减少手动编码时间。
代码补全
在IDE中提供智能代码补全建议。
加速编码过程,减少语法错误。
教育
编程教学辅助
帮助学生理解和学习不同编程语言的语法和概念。
提升学习效率,降低学习曲线。
AIbase
智启未来,您的人工智能解决方案智库
简体中文