T

Tibert Base

由 fgaim 开发
这是一个针对提格里尼亚语预训练的BERT基础模型,在4000万词符的数据集上进行了40轮预训练。
下载量 28
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是一个单语预训练语言模型,专门为提格里尼亚语设计,基于BERT架构,适用于各种自然语言处理任务。

模型特点

大规模预训练
在4000万词符的提格里尼亚语数据集上进行预训练
完整BERT架构
采用标准BERT架构,包含12层网络和12个注意力头
TPU优化训练
使用TPU v3.8进行高效训练,提供Flax和PyTorch版本

模型能力

文本掩码预测
语义理解
词向量表示

使用案例

自然语言处理
文本补全
可用于提格里尼亚语文本的自动补全任务
如示例所示,能够准确预测[MASK]位置的词汇
语义分析
可用于提格里尼亚语文本的语义理解和分析