B

Bert Large Uncased Sparse 90 Unstructured Pruneofa

由 Intel 开发
该模型是一个稀疏预训练模型,通过权重修剪技术实现90%稀疏度,适用于多种语言任务微调。
下载量 13
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

基于BERT-Large架构的稀疏语言模型,采用一次性修剪通用方法,保留重要权重信息的同时降低计算开销。

模型特点

高稀疏度设计
通过90%权重修剪实现高效计算,保持模型性能
一次性修剪通用方法
仅需一次修剪即可适应多项下游任务,无需重复修剪
知识保留技术
采用教师-学生框架确保修剪后保留重要知识

模型能力

文本理解
语言特征提取
下游任务微调

使用案例

自然语言处理
问答系统
微调后可用于构建高效问答系统
在SQuADv1.1上达到83.35 EM/90.20 F1
文本分类
适用于情感分析等分类任务
在SST-2上达到92.95%准确率
自然语言推理
可用于体裁自然语言推理任务
在MNLI-m/mm上分别达到83.74%/84.20%准确率