D

Distilbert Base Uncased

由 distilbert 开发
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
下载量 11.1M
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

基于Transformer架构的轻量级语言模型,通过知识蒸馏技术从BERT基础模型压缩而来,支持英语文本理解任务。

模型特点

高效蒸馏
通过知识蒸馏技术保留BERT-base 97%的性能,同时模型体积减少40%
快速推理
相比原始BERT模型,推理速度提升60%
多任务适应
支持下游任务的微调,适用于多种自然语言处理场景

模型能力

文本特征提取
掩码词汇预测
句子语义理解
文本分类
问答系统

使用案例

文本分析
情感分析
对评论内容进行积极/消极情感分类
在SST-2数据集准确率达91.3%
信息抽取
命名实体识别
从文本中识别人名、地点、组织等实体