M

M2 BERT 128 Retrieval Encoder V1

由 hazyresearch 开发
M2-BERT-128是论文《Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT》中提出的8000万参数检索模型检查点
下载量 19
发布时间 : 2/10/2024
模型介绍
内容详情
替代品

模型简介

基于BERT架构优化的长上下文检索模型,用于生成768维的检索嵌入向量

模型特点

长上下文处理能力
专门优化用于处理长上下文检索任务
高效检索嵌入
可生成768维的高质量检索嵌入向量
Monarch Mixer架构
采用创新的Monarch Mixer结构改进传统BERT

模型能力

文本嵌入生成
语义检索
长上下文处理

使用案例

信息检索
文档检索系统
构建基于语义相似度的文档检索系统
问答系统
用于问答系统中的相关段落检索