D

Dolphin 2.5 Mixtral 8x7b GPTQ

由 TheBloke 开发
Dolphin 2.5 Mixtral 8X7B 是由 Eric Hartford 开发的一个基于 Mixtral 架构的大型语言模型,经过多种高质量数据集的微调,适用于多种自然语言处理任务。
下载量 164
发布时间 : 12/14/2023
模型介绍
内容详情
替代品

模型简介

该模型是一个基于 Mixtral 8X7B 架构的大型语言模型,经过 Dolphin 数据集的微调,支持多种自然语言处理任务,包括文本生成、代码生成等。

模型特点

多专家模型
基于 Mixtral 8X7B 架构,采用多专家模型设计,能够高效处理复杂任务。
高质量微调
使用多种高质量数据集(如 Dolphin、Airoboros、Synthia 等)进行微调,提升模型性能。
支持长上下文
支持长达 8192 的上下文长度,适合处理长文本任务。
量化支持
提供多种量化版本(如 3-bit、4-bit、8-bit),降低硬件需求。

模型能力

文本生成
代码生成
自然语言理解
指令跟随

使用案例

代码生成
代码补全
根据用户提供的代码片段生成补全代码。
生成高质量的代码补全建议。
代码解释
解释复杂代码的功能和逻辑。
提供清晰易懂的代码解释。
文本生成
创意写作
生成故事、诗歌等创意文本。
生成富有创意的文本内容。
技术文档
根据用户需求生成技术文档或说明。
生成结构清晰、内容准确的技术文档。