L

Line Distilbert Base Japanese

由 line-corporation 开发
基于131GB日语网页文本预训练的DistilBERT模型,由LINE株式会社开发
下载量 12.92k
发布时间 : 3/9/2023
模型介绍
内容详情
替代品

模型简介

这是一个轻量级的日语BERT模型,适用于各种自然语言处理任务,如文本分类、问答和语义理解。

模型特点

轻量高效
相比完整BERT模型,参数减少40%但保持90%以上的性能
专业日语处理
使用MeCab结合Unidic词典进行专业日语分词处理
广泛预训练
基于131GB日语网页文本进行预训练

模型能力

日语文本理解
文本分类
问答系统
语义相似度计算
掩码语言建模

使用案例

企业应用
企业内部文档处理
用于处理和分析企业内部日语文档
研究开发
自然语言处理研究
作为基础模型用于日语NLP相关研究