S

Sealion Bert Base

由 aisingapore 开发
SEA-LION-BERT 是一个针对东南亚语言优化的多语言 BERT 模型,支持 11 种语言,基于 MosaicBERT 架构构建。
下载量 186
发布时间 : 11/16/2023

模型简介

SEA-LION-BERT 是由 AI Singapore 开发的多语言 BERT 模型,专门针对东南亚语言进行优化,能够有效处理包括英语、中文、印尼语、马来语等在内的 11 种语言的相关任务。

模型特点

多语言支持
支持 11 种东南亚语言,包括英语、中文、印尼语、马来语等。
优化的分词器
采用定制的 SEABPETokenizer 进行分词,针对东南亚语言优化,保障模型性能。
高效训练
基于 MosaicML Composer 在 4 个 Nvidia A100 40GB GPU 上训练 14 天完成。

模型能力

多语言文本处理
掩码语言建模
东南亚语言理解

使用案例

自然语言处理
多语言文本分类
对东南亚语言的文本进行分类任务。
语言模型预训练
作为基础模型进行下游任务的微调。
AIbase
智启未来,您的人工智能解决方案智库
简体中文