I

Ibert Roberta Large

由 kssteven 开发
I-BERT是RoBERTa-large的纯整数量化版本,通过INT8存储参数并使用整数运算执行推理,最高可实现4倍推理加速。
下载量 45
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

基于RoBERTa架构的整数量化模型,专为高效推理设计,适用于需要快速文本处理的任务。

模型特点

纯整数运算
所有参数以INT8格式存储,完全使用整数运算执行推理,无需浮点计算单元
量化感知训练
支持三阶段微调流程(全精度→量化→整数微调),最大限度保持量化后精度
4倍推理加速
在Nvidia T4 GPU上相比浮点版本实现最高4倍的推理速度提升

模型能力

文本分类
语义理解
高效推理

使用案例

文本处理
语义相似度判断
如MRPC任务中的句子对相似性分类
在量化后保持接近全精度模型的准确率