J

Jp ModernBERT Large Preview

由 makiart 开发
由Algomatic团队训练的日语BERT模型,支持填充掩码任务,上下文长度达8192。
下载量 20
发布时间 : 2/11/2025
模型介绍
内容详情
替代品

模型简介

这是一个基于BERT架构的日语语言模型,专门针对填充掩码任务进行优化。模型在fineweb2日语数据集上训练,具有较大的上下文处理能力。

模型特点

长上下文支持
支持8192 tokens的上下文长度,适合处理长文本任务。
高效推理
支持FlashAttention加速,在兼容GPU上可提升推理效率。
专业日语分词
使用BertJapaneseTokenizer分词器,针对日语文本处理优化。

模型能力

日语文本理解
填充掩码预测
长文本处理

使用案例

文本处理
句子补全
预测句子中被掩码的词语
示例中展示了预测'我々の大方の苦悩は、あり得べき別の[MASK]を夢想することから始まる。'中[MASK]位置的可能词语