C

Cpt Large

由 fnlp 开发
面向中文理解与生成的预训练非平衡Transformer模型,支持多种自然语言处理任务
下载量 122
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

CPT-Large是一个基于Transformer架构的中文预训练模型,专门针对中文文本的理解和生成任务进行了优化。它采用了非平衡的编码器-解码器结构,在保持BERT风格编码能力的同时增强了生成能力。

模型特点

优化的中文词表
采用51271大小的新词表,补全了6800+缺失汉字,移除冗余标记,新增英文token降低未登录词率
扩展的位置编码
最大位置嵌入从512扩展到1024,支持处理更长的文本序列
非平衡架构设计
采用编码器-解码器非平衡结构,同时兼顾文本理解和生成能力

模型能力

中文文本理解
中文文本生成
文本分类
摘要生成
填充掩码预测

使用案例

文本理解
文本分类
对中文文本进行分类,如新闻分类、情感分析等
在AFQMC任务上达到75.97的准确率
文本生成
摘要生成
自动生成中文文本的摘要
在LCSTS数据集上ROUGE-L得分为42.08
填充掩码预测
预测文本中被掩码遮盖的内容
示例中能正确预测'北京是中国的首都'