K

Karakuri Lm 8x7b Chat V0.1

由 karakuri-ai 开发
由KARAKURI公司开发的专家混合模型(MoE),支持英语和日语对话,基于Swallow-MX-8x7b-NVE-v0.1微调
下载量 526
发布时间 : 4/25/2024
模型介绍
内容详情
替代品

模型简介

一个支持多轮对话的混合专家模型,主要用于文本生成任务,特别优化了英语和日语交流能力

模型特点

多属性控制响应
通过9种可调节属性(如帮助性、正确性、幽默感等)精细控制生成内容的质量和风格
双语支持优化
特别针对英语和日语进行了优化,在两种语言上均表现出色
高效参数利用
作为混合专家模型,仅13B活跃参数即可达到与更大模型相当的性能

模型能力

多轮对话生成
属性可控文本生成
双语(英/日)交流
指令跟随

使用案例

智能助手
旅游建议
提供当日往返东京的观光方案建议
生成详细的行程安排和景点推荐
客户服务
多语言客服
处理英语和日语客户的咨询
提供准确、有帮助的双语响应