M

M2 Bert 80M 8k Retrieval

由 togethercomputer 开发
这是一个8000万参数的M2-BERT预训练检查点,序列长度达8192,并针对长上下文检索任务进行了微调。
下载量 198
发布时间 : 11/4/2023

模型简介

Monarch Mixer-BERT模型是一个基于GEMM的次二次复杂度简易架构,专为长上下文检索任务设计。

模型特点

长序列处理
支持长达8192的序列长度,适合处理长上下文检索任务。
高效架构
基于GEMM的次二次复杂度简易架构,计算效率高。
预训练与微调
经过预训练并针对检索任务进行了微调,生成768维的检索嵌入向量。

模型能力

句子相似度计算
长文本检索
生成嵌入向量

使用案例

信息检索
文档检索
用于从大量文档中检索相关文档。
问答系统
用于问答系统中检索相关答案。
AIbase
智启未来,您的人工智能解决方案智库
简体中文