B

Bert Base Uncased Pretrained Mlm Coqa Stories

由 alistvt 开发
基于BERT架构的预训练语言模型,支持掩码语言建模任务
下载量 23
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是基于BERT-base架构的预训练模型,通过掩码语言建模(MLM)任务进行训练,可能适用于故事理解和问答场景

模型特点

基于BERT架构
采用经过验证的BERT-base架构,具有强大的语言理解能力
掩码语言建模预训练
专门针对MLM任务进行优化,适合语言理解和生成任务
可能支持故事理解
模型名称中包含'stories',可能针对故事文本进行了特别训练

模型能力

文本理解
掩码预测
语言建模

使用案例

自然语言处理
故事理解
理解故事文本内容并回答相关问题
问答系统
构建基于文本的问答系统