A

AI21 Jamba Mini 1.5

由 ai21labs 开发
AI21 Jamba 1.5 Mini 是一款先进的混合SSM-Transformer指令跟随基础模型,具有高效的长上下文处理能力和快速的推理速度。
下载量 6,102
发布时间 : 8/19/2024
模型介绍
内容详情
替代品

模型简介

Jamba 1.5 Mini 是市场上最强大且高效的长上下文模型之一,其推理速度比同类领先模型快达2.5倍。它展示了卓越的长上下文处理能力、速度和质量,是首个成功扩展到市场领先模型质量和强度的非Transformer模型。

模型特点

高效的长上下文处理
支持高达256K的上下文长度,能够处理超长文本输入。
快速的推理速度
推理速度比同类领先模型快达2.5倍。
混合SSM-Transformer架构
结合了SSM和Transformer的优势,提供高效且强大的模型性能。
多语言支持
支持英语、法语、德语、荷兰语、西班牙语、葡萄牙语、意大利语、阿拉伯语和希伯来语。
优化的商业用例
针对函数调用、结构化输出(JSON)和基于事实的生成等商业用例进行了优化。

模型能力

文本生成
长上下文处理
多语言文本生成
函数调用
结构化输出(JSON)
基于事实的生成

使用案例

商业应用
函数调用
支持根据用户请求调用外部函数,实现自动化任务。
高效且准确的函数调用能力。
结构化输出
生成JSON格式的结构化输出,便于程序处理。
输出格式规范且易于解析。
多语言应用
多语言文本生成
支持多种语言的文本生成任务。
高质量的多语言文本输出。
长文本处理
长文档摘要
处理长达256K token的长文档并生成摘要。
高效且准确的摘要生成能力。