A

Albert Base V1

由 albert 开发
ALBERT是基于Transformer架构的轻量级预训练语言模型,通过自监督学习在英语文本上训练,具有参数共享特性以减少内存占用。
下载量 18.34k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型采用掩码语言建模和句子顺序预测目标进行预训练,适用于下游任务的微调,如文本分类、问答等。

模型特点

参数共享架构
所有Transformer层共享权重,显著减少内存占用
轻量级设计
基础版仅1100万参数,适合资源有限场景
双向上下文理解
通过掩码语言建模学习文本双向表征

模型能力

文本特征提取
掩码词汇预测
句子顺序判断
下游任务微调

使用案例

文本理解
序列分类
情感分析、主题分类等任务
在SST-2情感分析任务中达到90.3%准确率
问答系统
基于文本的问答任务
在SQuAD1.1上F1得分89.3
语言建模
文本补全
预测被遮蔽的词汇
示例显示能预测合理的上下文相关词汇