Q

Qwen2.5 MOE 2X1.5B DeepSeek Uncensored Censored 4B Gguf

由 DavidAU 开发
这是一个Qwen2.5 MOE(专家混合)模型,由两个Qwen 2.5 DeepSeek(审查版/普通版和无审查版)1.5B模型组成,形成一个4B模型,其中无审查版本的DeepSeek Qwen 2.5 1.5B主导模型行为。
下载量 678
发布时间 : 3/4/2025
模型介绍
内容详情
替代品

模型简介

该模型具备两倍于DeepSeek Distill的推理/思考能力,并在其规模下表现出卓越的性能。适用于文本生成、问题解决、故事创作等多种任务。

模型特点

专家混合架构
由两个1.5B模型组成,形成4B模型,具备更强的推理和思考能力。
无审查
无审查版本的DeepSeek Qwen 2.5 1.5B主导模型行为,适用于更广泛的用例。
128k上下文长度
支持长上下文处理,适合复杂任务和长篇内容生成。
数学/逻辑问题解决
基于Qwen的1.5B数学模型,更偏向数学/逻辑问题解决,科学化。

模型能力

文本生成
问题解决
头脑风暴
解谜
故事生成
情节生成
讲故事
虚构故事创作
写作
小说创作

使用案例

创意写作
故事生成
生成虚构故事或情节,如《星际迷航》剧集情节构思。
生成六个涉及时间旅行的故事情节。
角色扮演游戏描述
为游戏场景生成描述性文本,如洞穴中的哥布林争吵场景。
生成与场景相关的创意隐喻描述。
问题解决
技术方案生成
解释利用夜间辐射冷却技术降低地球全球温度的方法。
生成八种方法和技术的详细解释。