B

Bert Base Multilingual Cased Finetuned Naija

由 Davlan 开发
这是一个针对尼日利亚皮钦语优化的BERT模型,基于多语言BERT微调而成,在命名实体识别任务上表现优于原始多语言BERT。
下载量 13
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是在尼日利亚皮钦语文本上微调的BERT模型,专门用于处理皮钦语的自然语言处理任务,特别是在命名实体识别方面有更好表现。

模型特点

皮钦语优化
专门针对尼日利亚皮钦语进行微调,比通用多语言BERT模型在该语言上表现更好。
命名实体识别优势
在MasakhaNER数据集上的F1分数达到89.95,优于原始多语言BERT的87.23。

模型能力

文本填充
命名实体识别
皮钦语文本处理

使用案例

新闻分析
皮钦语新闻实体识别
从BBC皮钦语新闻中识别命名实体
F1分数89.95