Q

Qwen3 30B A1.5B High Speed GGUF

由 Mungert 开发
基于Qwen 30B-A3B(MOE)微调的高效推理模型,通过减少专家数量实现接近双倍速度提升,支持多种量化格式和40K上下文长度
下载量 732
发布时间 : 6/5/2025

模型简介

针对高效推理优化的混合专家模型,支持CPU/GPU部署,适用于文本生成、深度思考等任务,特别适合资源受限环境

模型特点

高速推理
通过减少激活专家数量至4个,实现接近双倍推理速度
多格式支持
支持GGUF、GPTQ、EXL2等多种量化格式,适配不同硬件
大上下文窗口
支持40K tokens上下文长度(32K输入+8K输出)
深度思考模式
可通过系统角色设置实现链式深度推理,输出带<think>标签的思考过程
低资源部署
量化版本可在CPU或低VRAM GPU运行,最小化内存占用

模型能力

长文本生成
系统性推理
网络监控分析
安全审计辅助
多轮对话
技术文档处理

使用案例

网络监控与安全
SSL证书检查
分析网站SSL证书安全性
自动生成证书有效性报告
量子安全加密检测
检查服务器是否使用量子安全加密通信
识别加密协议类型并提出改进建议
自动化安全审计
执行综合服务器安全审计
生成包含漏洞分析的安全报告
创意内容生成
科幻故事创作
基于指定主题生成800-1000字科幻小说
包含完整情节和情感深度的故事输出
AIbase
智启未来,您的人工智能解决方案智库
简体中文