D

Distilbert Word2vec 256k MLM 250k

由 vocab-transformers 开发
该模型结合了word2vec词嵌入和DistilBERT架构,适用于自然语言处理任务。词嵌入层基于大规模语料训练且保持冻结,模型通过掩码语言建模进行微调。
下载量 21
发布时间 : 4/7/2022
模型介绍
内容详情
替代品

模型简介

一个结合word2vec词嵌入的轻量级BERT变体,适用于高效的文本表示和语言理解任务。

模型特点

高效词嵌入
采用基于100GB大规模语料训练的word2vec词嵌入矩阵,包含256k词条
轻量级架构
基于DistilBERT的轻量级设计,保持性能的同时减少计算资源需求
冻结词嵌入
在MLM训练过程中保持词嵌入层参数冻结,专注于上层结构学习

模型能力

文本表示学习
语言模型微调
上下文理解

使用案例

自然语言处理
文本分类
可用于文档分类、情感分析等任务
信息检索
改进搜索相关性排序和查询理解