D

Distilbert Base Uncased Finetuned TT2 Exam

由 roschmid 开发
该模型是基于distilbert-base-uncased在conll2003数据集上微调的版本,用于标记分类任务。
下载量 15
发布时间 : 5/23/2022
模型介绍
内容详情
替代品

模型简介

该模型是一个经过微调的DistilBERT模型,专门用于标记分类任务,在conll2003数据集上表现出色。

模型特点

高效微调
基于DistilBERT架构,在conll2003数据集上进行了高效微调,显著提升了标记分类的性能。
高性能
在评估集上取得了高精确率(0.9222)、召回率(0.9369)和F1值(0.9295)。
轻量级
DistilBERT架构相比原始BERT模型更轻量,适合资源有限的环境。

模型能力

标记分类
自然语言处理
实体识别

使用案例

自然语言处理
命名实体识别
用于识别文本中的命名实体,如人名、地名和组织名。
在conll2003数据集上表现出色,F1值达到0.9295。