B

Bertin Roberta Large Spanish

由 flax-community 开发
BERTIN是基于BERT的西班牙语模型系列,本模型为RoBERTa-large架构,使用Flax框架从零开始训练,数据源为mC4语料库的西班牙语部分。
下载量 26
发布时间 : 3/2/2022

模型简介

这是一个基于RoBERTa-large架构的西班牙语预训练模型,专门用于填充掩码任务,适用于西班牙语自然语言处理应用。

模型特点

从零开始训练
使用Flax框架从零开始训练,而非基于现有模型微调
大规模训练数据
基于mC4西班牙语语料库,包含约4.16亿条文本记录和2350亿单词量
社区驱动开发
作为HuggingFace社区周项目开发,由Google提供TPU资源支持

模型能力

西班牙语文本理解
填充掩码预测
上下文语义分析

使用案例

自然语言处理
文本补全
预测句子中被掩码的单词
示例:'我去书店买了一本<mask>。' 可以预测为'书'或其他合适词汇
语义分析
理解西班牙语文本的上下文含义
AIbase
智启未来,您的人工智能解决方案智库
简体中文