B

Bert Base Uncased Finetuned Quac

由 OrfeasTsk 开发
基于Transformer架构的预训练语言模型,适用于多种NLP任务
下载量 25
发布时间 : 3/9/2022
模型介绍
内容详情
替代品

模型简介

双向Transformer编码器模型,通过大规模语料预训练获得通用语言理解能力

模型特点

双向上下文理解
通过MLM预训练任务实现双向语境编码
迁移学习友好
可通过微调适配下游NLP任务
注意力机制
全连接自注意力层捕捉长距离依赖关系

模型能力

文本特征提取
语义相似度计算
文本分类
问答系统
命名实体识别

使用案例

文本分析
情感分析
对用户评论进行正面/负面情感分类
典型准确率>90%(推断值)
信息抽取
实体识别
从文本中提取人名/地名/组织名等实体