D

Distilbert Base Cased

由 distilbert 开发
DistilBERT是BERT基础模型的蒸馏版本,体积更小、速度更快,保留了97%的BERT性能。
下载量 233.75k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是BERT基础模型的轻量级版本,通过知识蒸馏技术训练,主要用于自然语言处理任务。

模型特点

高效蒸馏
通过知识蒸馏技术,保留了BERT-base 97%的性能,同时体积缩小40%
快速推理
相比原始BERT模型,推理速度提升60%
区分大小写
能够识别和处理大小写不同的词汇

模型能力

掩码语言建模
文本特征提取
序列分类
标记分类
问答系统

使用案例

文本分析
情感分析
对文本进行情感倾向分类
在SST-2数据集上达到90.4准确率
问答系统
基于文本内容回答问题
在QNLI数据集上达到88.2准确率
文本补全
掩码词汇预测
预测句子中被掩码的词汇
可生成多个可能的预测结果及其置信度