B

Bart Large Chinese

由 fnlp 开发
基于BART架构的中文预训练模型,支持文本生成和理解任务,由复旦大学自然语言处理实验室发布
下载量 638
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

面向中文理解与生成的预训练非平衡Transformer模型,适用于多种自然语言处理任务

模型特点

词表优化
采用51271大小的新词表,补全6800+缺失汉字并移除冗余标记,降低未登录词率
长序列支持
位置编码从512扩展到1024,支持更长的文本序列处理
性能稳定
通过词汇对齐技术和增量训练保持原有性能水平

模型能力

文本生成
文本理解
文本摘要
问答系统
文本补全

使用案例

文本生成
首都填空
生成完整的国家首都描述
输入'北京是[MASK]的首都',输出'北 京 是 中 华 人 民 共 和 国 的 首 都'
学术研究
中文NLP研究
作为基线模型用于中文自然语言处理任务研究
在AFQMC、IFLYTEK等基准测试中表现良好