B

Bert Base Ja

由 colorfulscoop 开发
基于日语维基百科数据集训练的BERT基础模型,适用于日语文本的掩码填充任务
下载量 16
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

这是一个基于日语维基百科数据集训练的BERT基础模型,主要用于日语文本的掩码填充任务。模型采用标准的BERT架构,词汇表规模为32,000。

模型特点

日语专用词汇表
词汇表规模设置为32,000,专门针对日语文本优化
SentencePiece分词器
采用SentencePiece模型进行分词,特别处理了日语不以空格分隔单词的特点
稳定的分词行为
使用DebertaV2Tokenizer确保分词行为在不同环境下保持一致

模型能力

日语文本理解
掩码填充预测

使用案例

教育
学科预测
预测学生可能擅长的学科
示例:'得意な科目は[MASK]です' → '得意な科目は数学です'
学术
专业领域预测
预测学术专业领域
示例:'専門として[MASK]を専攻しています' → '専門として工学を専攻しています'