D

Distilbert Base Cased Distilled Squad

由 distilbert 开发
DistilBERT是BERT的轻量级蒸馏版本,参数量减少40%,速度提升60%,保留95%以上性能。本模型是在SQuAD v1.1数据集上微调的问答专用版本。
下载量 220.76k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

基于Transformer的轻量级英语问答模型,适用于从给定文本中提取答案的抽取式问答任务。

模型特点

高效轻量
通过知识蒸馏技术,模型体积比原始BERT减少40%,推理速度提升60%
高性能
在SQuAD v1.1验证集上达到87.1的F1分数,接近原始BERT 88.7的表现
专注问答
专门针对抽取式问答任务优化,可直接用于问答系统开发

模型能力

文本理解
问答提取
上下文分析

使用案例

教育科技
自动答题系统
从教材或参考资料中自动提取问题答案
在SQuAD基准测试中达到87.1 F1分数
客户服务
FAQ自动应答
从知识库文档中快速定位问题答案