A

Albert Xxlarge V2

由 albert 开发
ALBERT XXLarge v2是基于掩码语言建模目标预训练的大型语言模型,采用参数共享的Transformer架构,具有12层重复结构和2.23亿参数。
下载量 19.79k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是ALBERT系列中的最大版本,通过共享层参数减少内存占用,在多项NLP任务中表现优异。主要用于文本特征提取和下游任务微调。

模型特点

参数共享架构
通过共享所有Transformer层的参数,显著减少模型内存占用
双目标预训练
同时使用掩码语言建模(MLM)和句子顺序预测(SOP)进行预训练
大规模预训练数据
使用BookCorpus和英文维基百科进行训练,覆盖广泛文本类型
版本改进
v2版本通过调整dropout率和延长训练时间,性能优于v1版本

模型能力

文本特征提取
掩码语言预测
句子顺序判断
下游任务微调

使用案例

自然语言理解
文本分类
可用于情感分析、主题分类等任务
在SST-2情感分析任务中达到96.8%准确率
问答系统
用于构建开放域问答系统
在SQuAD2.0问答任务中达到89.8/86.9的EM/F1分数
语言模型研究
语言表示学习
研究参数共享架构对语言表示的影响