B

Bert Base Uncased Qnli

由 Li 开发
基于Transformer架构的预训练语言模型,适用于多种自然语言处理任务。
下载量 95
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

BERT(Bidirectional Encoder Representations from Transformers)是一种基于Transformer架构的预训练语言模型,通过双向上下文理解文本,适用于问答、文本分类等任务。

模型特点

双向上下文理解
通过双向Transformer编码器捕捉文本的上下文信息。
预训练与微调
支持在大规模语料上预训练后,针对特定任务进行微调。
多任务支持
适用于问答、文本分类、命名实体识别等多种自然语言处理任务。

模型能力

文本分类
问答系统
自然语言推理

使用案例

自然语言处理
问答自然语言推理
判断上下文句子是否包含问题的答案。
评估准确率91.69%