B

Bengali T5 Base

由 flax-community 开发
基于MT5数据集中孟加拉语部分训练的T5基础模型,由HuggingFace社区开发
下载量 57
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

这是一个专门针对孟加拉语训练的T5基础模型,采用去噪目标进行预训练,适合作为下游任务的基座模型

模型特点

孟加拉语专用
专门针对孟加拉语优化的预训练模型
大规模训练
使用约110亿token的孟加拉语数据进行训练
TPU加速训练
利用谷歌提供的TPU算力进行高效训练

模型能力

文本去噪
语言模型预训练
孟加拉语文本处理

使用案例

自然语言处理
孟加拉语文本生成
可作为基础模型进行微调后用于孟加拉语文本生成
需进行前缀语言模型微调后才能获得生成能力
下游任务微调
可用于各类孟加拉语NLP任务的基座模型