D

Distilbert Base Multilingual Cased

由 distilbert 开发
DistilBERT 是 BERT 基础多语言模型的蒸馏版本,保留了 BERT 的 97% 性能但参数更少、速度更快。支持 104 种语言,适用于多种自然语言处理任务。
下载量 2.8M
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是 BERT 基础多语言模型的轻量级版本,通过知识蒸馏技术训练,在保持高性能的同时减少了模型大小和计算需求。主要用于文本分类、命名实体识别、问答等下游任务的微调。

模型特点

多语言支持
支持 104 种语言的文本处理,包括主要欧洲和亚洲语言
高效推理
相比原版 BERT 模型,推理速度提升约 2 倍
知识蒸馏
通过蒸馏技术保留了原模型 97% 的性能,同时显著减小模型体积
区分大小写
能够区分大小写,如 'english' 和 'English' 被视为不同

模型能力

文本理解
语言建模
多语言文本处理
下游任务微调

使用案例

自然语言处理
跨语言文本分类
在多语言环境下对文本进行分类
在 XNLI 数据集上表现良好
命名实体识别
识别文本中的人名、地名、机构名等实体
问答系统
构建多语言问答系统