M

M2 Bert 80M 32k Retrieval

由 togethercomputer 开发
这是一个80M参数的M2-BERT预训练模型,支持长达32768的序列长度,专为长上下文检索任务优化
下载量 1,274
发布时间 : 11/4/2023
模型介绍
内容详情
替代品

模型简介

基于Monarch Mixer架构的BERT变体模型,针对长文本检索任务进行了微调,能够生成高质量的文本嵌入向量

模型特点

超长上下文处理
支持长达32768个token的序列长度,适合处理长文档检索任务
高效架构
采用Monarch Mixer次二次方架构,在保持性能的同时提高计算效率
检索优化
专门针对检索任务进行微调,生成768维的高质量文本嵌入

模型能力

长文本相似度计算
语义检索
文本嵌入生成

使用案例

信息检索
长文档检索
从大量长文档中快速找到相关内容
能够有效处理长达32k token的文档
语义搜索
基于语义而非关键词的文档搜索
生成高质量的语义嵌入向量