L

Longformer Zh

由 ValkyriaLenneth 开发
基于PyTorch的中文Longformer模型,能以线性复杂度处理最长4096字符的文档序列,适用于中文长文本任务。
下载量 418
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型融合了局部窗口注意力与任务导向的全局注意力,可完美替代标准自注意力模块,特别适合处理中文长文本任务。

模型特点

线性复杂度处理长文本
相较于Transformer的O(n^2)复杂度,能以线性复杂度处理最长4096字符的文档序列。
混合注意力机制
融合了局部窗口注意力与任务导向的全局注意力,可完美替代标准自注意力模块。
全词掩码机制
引入全词掩码(WWM)机制适配中文特性,据查为首个开源的PyTorch版中文WWM实现。

模型能力

长文本处理
文本分类
阅读理解
指代消解
情感分析

使用案例

情感分析
CCF情感分析
用于中文文本情感分类任务
开发集F1达到80.51,与Roberta-mid相当
阅读理解
中文阅读理解(CMRC)
用于中文阅读理解任务
F1:86.15, EM:66.84,优于Bert基准
指代消解
指代消解任务
用于中文指代消解任务
Conll-F1:67.81,优于Bert和Roberta