D

Dense Encoder Msmarco Distilbert Word2vec256k MLM 210k Emb Updated

由 vocab-transformers 开发
基于word2vec初始化的256k词表规模DistilBERT模型,专为句子相似度和信息检索任务优化
下载量 23
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型采用word2vec初始化的扩展词表,通过MS MARCO数据集训练,适用于句子嵌入生成和语义相似度计算

模型特点

扩展词表
使用word2vec初始化的256k词表规模,相比标准BERT模型有更强的词汇覆盖能力
高效训练
基于DistilBERT架构,在保持性能的同时减少模型复杂度
专业优化
使用MarginMSELoss在MS MARCO数据集上专门针对信息检索任务进行优化

模型能力

句子嵌入生成
语义相似度计算
信息检索
文档匹配

使用案例

信息检索
搜索引擎优化
用于改进搜索引擎的文档相关性排序
在MS MARCO开发集上MRR@10达到34.91
问答系统
匹配用户问题与知识库中的候选答案
在TREC-DL 2019/2020上nDCG@10分别达到67.56和68.18
语义分析
文档去重
识别语义相似的文档