J

J.O.S.I.E.3 Beta12 7B Slerp

由 Goekdeniz-Guelmez 开发
J.O.S.I.E.3-Beta12-7B-slerp 是一个通过合并 Weyaxi/Einstein-v6-7B 和 argilla/CapybaraHermes-2.5-Mistral-7B 模型而成的7B参数大语言模型,支持多语言交互
下载量 17
发布时间 : 4/23/2024
模型介绍
内容详情
替代品

模型简介

该模型是一个私人超级智能AI助手,专注于提供高质量的对话和问答服务,支持多种语言和复杂任务处理。

模型特点

多语言支持
支持包括中文在内的6种语言交互
合并模型优势
结合Einstein-v6和CapybaraHermes两个模型的优势,通过slerp方法合并
ChatML格式
采用标准化的ChatML提示格式,便于集成到对话系统中
量化支持
提供GGUF量化版本,便于在不同硬件上部署

模型能力

多语言文本生成
智能对话
知识问答
任务完成

使用案例

个人助手
私人AI助手
作为个人日常助手,回答各种问题并提供建议
在HellaSwag测试集上达到83.98%的归一化准确率
教育
学科知识问答
回答高中和大学水平的各学科问题
在高中地理测试中达到79.8%准确率