B

Bert Base Multilingual Cased Finetuned Amharic

由 Davlan 开发
基于多语言BERT微调的阿姆哈拉语模型,通过替换词汇表并微调获得,在NER任务上优于原生多语言模型
下载量 196
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是基于阿姆哈拉语语料库微调的BERT模型,专门针对阿姆哈拉语文本处理任务优化,尤其在命名实体识别任务上表现优异

模型特点

阿姆哈拉语专用词汇表
替换了原mBERT不支持的阿姆哈拉语词汇表,显著提升对阿姆哈拉语文本的理解能力
NER任务性能优势
在MasakhaNER数据集上的F1分数达60.89,显著优于原生多语言BERT模型
高效微调
基于预训练的多语言BERT模型进行高效微调,节省训练资源

模型能力

阿姆哈拉语文本理解
掩码词预测
命名实体识别

使用案例

自然语言处理
阿姆哈拉语文本分析
处理阿姆哈拉语新闻文章等文本内容
在NER任务上F1分数达60.89
语言模型应用
用于阿姆哈拉语的掩码词预测等任务