M

M2 BERT 8k Retrieval Encoder V1

由 hazyresearch 开发
M2-BERT-8K是一个8000万参数的长上下文检索模型,基于论文《Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT》提出的架构。
下载量 52
发布时间 : 5/22/2024

模型简介

M2-BERT-8K是一个专为长上下文检索任务设计的BERT变体模型,支持最大8192的序列长度,能够生成768维的嵌入向量用于检索任务。

模型特点

长上下文支持
支持最大8192的序列长度,适合处理长文档检索任务
高效检索
生成768维的嵌入向量,优化了检索效率
自定义架构
采用Monarch Mixer架构改进的BERT变体

模型能力

文本嵌入生成
长文档检索
掩码语言建模

使用案例

信息检索
文档检索系统
构建支持长文档的检索系统
能够有效处理长达8192 token的文档
AIbase
智启未来,您的人工智能解决方案智库
简体中文