B

Bert Base Uncased Sparse 90 Unstructured Pruneofa

由 Intel 开发
这是一个稀疏预训练的BERT-Base模型,通过一次性修剪方法实现90%权重稀疏化,适用于多种语言任务微调。
下载量 178
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型采用一次性修剪通用方法进行稀疏化处理,保留重要信息的同时降低计算开销,可通过微调适应问答、自然语言推理等下游任务。

模型特点

高稀疏度
通过修剪实现90%权重稀疏化,显著减少计算资源需求
一次性修剪通用方法
只需一次修剪即可适应多种下游任务,无需针对每个任务重新修剪
保持性能
在保持模型性能的同时实现高稀疏度,平衡效率与准确性

模型能力

文本理解
语言表示学习
迁移学习

使用案例

自然语言处理
问答系统
通过微调可用于构建问答系统
在SQuADv1.1上达到79.83 EM/87.25 F1
文本分类
可用于情感分析等文本分类任务
在SST-2上达到90.88%准确率
自然语言推理
适用于体裁自然语言推理任务
在MNLI-m/mm上分别达到81.45%/82.43%准确率