B

Bert News

由 dkhara 开发
基于Transformer架构的中文预训练语言模型,适用于多种自然语言处理任务
下载量 6
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

通过双向Transformer编码器实现上下文理解,支持中文文本的语义表示和下游任务微调

模型特点

双向上下文理解
通过全注意力机制捕获文本中每个词的双向上下文关系
多任务适配
可通过微调适配多种下游NLP任务
中文优化
针对中文分词和语义特点进行专门优化

模型能力

文本特征提取
语义相似度计算
实体识别
情感分析
问答系统构建

使用案例

新闻领域
新闻分类
自动将新闻按政治/经济/体育等类别分类
在THUCNews数据集上达到95%准确率
事件要素提取
从新闻正文中提取时间、地点、人物等关键要素
舆情分析
情感倾向分析
分析社交媒体文本的情感极性