M

M2 BERT 2k Retrieval Encoder V1

由 hazyresearch 开发
80M参数的M2-BERT-2k模型检查点,专为长上下文检索任务设计,支持2048个token的上下文长度。
下载量 80
发布时间 : 5/22/2024
模型介绍
内容详情
替代品

模型简介

M2-BERT是基于BERT架构改进的模型,特别优化了长上下文检索任务。它能够生成768维的嵌入向量,适用于信息检索等场景。

模型特点

长上下文支持
支持2048个token的长上下文处理能力,适合处理长文档检索任务
高效检索嵌入
生成768维的高质量嵌入向量,优化了检索任务的性能
轻量级架构
仅80M参数的轻量级设计,在保持性能的同时减少计算资源需求

模型能力

文本嵌入生成
长文本处理
信息检索

使用案例

信息检索
文档检索
使用模型生成的嵌入向量进行相似文档检索
可有效处理长达2048个token的文档
语义搜索
基于语义相似度的内容搜索系统