D

Distilbert Base Uncased Distilled Squad

由 distilbert 开发
DistilBERT是BERT的轻量级蒸馏版本,参数量减少40%,速度提升60%,在GLUE基准测试中保持BERT 95%以上的性能。本模型专为问答任务微调。
下载量 154.39k
发布时间 : 3/2/2022

模型简介

基于DistilBERT-base-uncased的微调模型,使用SQuAD v1.1数据集通过知识蒸馏训练,适用于英语问答任务。

模型特点

高效轻量
相比原始BERT模型,参数量减少40%,推理速度提升60%
高性能
在GLUE基准测试中保持BERT 95%以上的性能表现
问答优化
专门针对SQuAD问答任务进行微调,在SQuAD v1.1上达到86.9 F1分数

模型能力

抽取式问答
文本理解
答案定位

使用案例

问答系统
基于文档的问答
从给定文本中提取问题答案
在SQuAD v1.1数据集上达到86.9 F1分数
知识检索
从知识库中查找相关信息
AIbase
智启未来,您的人工智能解决方案智库
简体中文