D

Distilbert Tokenizer 256k MLM 750k

由 vocab-transformers 开发
基于256k词嵌入的DistilBERT模型,通过MLM训练优化词向量
下载量 16
发布时间 : 4/7/2022
模型介绍
内容详情
替代品

模型简介

该模型结合了Word2Vec预训练词嵌入和DistilBERT架构,在多种语料上进行MLM训练,适用于自然语言处理任务

模型特点

大规模词嵌入
初始加载256k维Word2Vec词嵌入,覆盖广泛词汇
优化的MLM训练
在75万步训练中更新词嵌入参数,提升上下文表示能力
多源训练数据
基于C4、MSMARCO、新闻、维基百科和S2ORC等100GB语料训练
轻量级架构
采用DistilBERT架构,在保持性能的同时减少模型体积

模型能力

文本表示学习
上下文词向量生成
语言模型微调
下游NLP任务迁移学习

使用案例

信息检索
搜索相关性建模
利用优化的词向量改进查询-文档匹配
文本分类
文档分类
基于丰富词嵌入的特征提取