C

Chinese Pretrain Mrc Roberta Wwm Ext Large

由 luhua 开发
基于海量中文阅读理解数据训练的roberta_wwm_ext_large模型,在阅读理解/文本分类等任务上表现显著提升。
下载量 790
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是基于RoBERTa-wwm-ext-large架构的中文预训练模型,专门针对中文阅读理解任务进行了优化训练,在多项中文阅读理解竞赛中取得优异成绩。

模型特点

中文阅读理解优化
专门针对中文阅读理解任务进行优化训练,在多项竞赛中表现优异
基于RoBERTa-wwm-ext-large架构
采用全词掩码(Whole Word Masking)技术的RoBERTa大型模型架构
竞赛验证效果
在Dureader-2021等赛事中助力开发者获得前五强佳绩

模型能力

中文文本理解
问答系统构建
文本分类
机器阅读理解

使用案例

竞赛应用
Dureader-2021竞赛
用于中文机器阅读理解竞赛
助力多位开发者获得前五强
医疗问答
腾讯医疗问答系统
应用于医疗领域的问答系统
测试集准确率达83.1%