D

Distilroberta Base

由 distilbert 开发
DistilRoBERTa是RoBERTa-base模型的蒸馏版本,参数更少但速度更快,适用于英语文本处理任务。
下载量 1.2M
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

基于Transformer的语言模型,通过知识蒸馏技术压缩RoBERTa-base模型,保留大部分性能的同时提升推理速度。

模型特点

高效推理
相比原版RoBERTa-base,推理速度提升约2倍
轻量化设计
参数数量减少34%(从1.25亿降至8200万)
知识蒸馏技术
采用与DistilBERT相同的训练流程,保留教师模型90%以上的GLUE性能

模型能力

掩码语言建模
文本分类
序列标注
问答系统

使用案例

文本理解
情感分析
对评论进行正面/负面情感分类
在SST-2数据集上达到92.5%准确率
文本相似度计算
衡量两段文本的语义相似度
在STS-B数据集上达到88.3分
信息抽取
命名实体识别
从文本中识别人名、地名等实体