基于word2vec初始化的256k词表规模DistilBERT模型,专为句子相似度和信息检索任务优化
下载量 23
发布时间 : 3/2/2022
模型简介
该模型采用word2vec初始化的扩展词表,通过MS MARCO数据集训练,适用于句子嵌入生成和语义相似度计算
模型特点
扩展词表
使用word2vec初始化的256k词表规模,相比标准BERT模型有更强的词汇覆盖能力
高效训练
基于DistilBERT架构,在保持性能的同时减少模型复杂度
专业优化
使用MarginMSELoss在MS MARCO数据集上专门针对信息检索任务进行优化
模型能力
句子嵌入生成
语义相似度计算
信息检索
文档匹配
使用案例
信息检索
搜索引擎优化
用于改进搜索引擎的文档相关性排序
在MS MARCO开发集上MRR@10达到34.91
问答系统
匹配用户问题与知识库中的候选答案
在TREC-DL 2019/2020上nDCG@10分别达到67.56和68.18
语义分析
文档去重
识别语义相似的文档
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文