许可证: cc-by-nc-4.0
语言:
- 英文
评估指标:
- F1值
任务标签: 文本分类
标签:
- 变形金刚模型
- 论点挖掘
- 观点挖掘
- 信息抽取
- 推理抽取
- 推特
示例展示:
- 文本: '男性不应制定关于女性身体的法律 #堕胎 #德克萨斯'
示例标题: 陈述
- 文本: '‘苦涩真相’: 欧盟负责人给英国脱欧后保留欧盟公民身份的想法泼冷水 #Brexit HTTPURL via @用户'
示例标题: 通知
- 文本: '观点: 随着严苛(甚至更甚)的堕胎法在#德克萨斯生效,对数百万美国人来说这不是一个无关紧要的问题。这是共和党州立法机构试图效仿的滑坡趋势。#堕胎 #F24 HTTPURL'
示例标题: 理由
- 文本: '@用户 废话连篇废话连篇'
示例标题: 无类别
- 文本: '共和党男性和凯伦们让我恶心'
示例标题: 未标注1
- 文本: '没有帝国能永存!历史事实!上帝必胜!🙏💪🇺🇲'
示例标题: 未标注2
- 文本: '关于注册和签证支持信的更多作者信息将很快发送给作者。#CIKM2023'
示例标题: 未标注3
- 文本: '嗯......'
示例标题: 未标注4
- 文本: '谁说《最后的绝地武士》是好电影的人要么在撒谎,要么在戏弄大家'
示例标题: 未标注5
- 文本: '我认为人们没有意识到这件事有多大 GBI Strategies,这个由拜登政治行动委员会支付1100多万美元在20个州收集欺诈性选民登记的组织,可能是民主党选举舞弊的根源 @用户可能刚刚揭露了他们整个欺诈机器 HTTPURL'
示例标题: 未标注6
基础模型:
- vinai/bertweet-base
WRAP —— 基于TACO的推特推理与信息驱动论点挖掘分类器
WRAP是一款基于AutoModelForSequenceClassification
构建的高级分类模型,旨在识别属于TACO数据集中四种独特类别的推文:理由、陈述、通知和无类别。该模型专为从推特数据中提取信息和推理而设计,采用了WRAPresentations技术(WRAP因此得名)。WRAPresentations是对BERTweet-base架构的改进,通过对比学习扩展了增强推文的嵌入表示,以更好地编码推文中的推理和信息。
类别语义
TACO框架围绕剑桥词典定义的论证两大核心要素构建。它将推理编码为基于已有信息做出的猜测或形成的观点,同时采纳信息的定义为关于个人、公司、产品等的事实或细节。
综合而言,WRAP能够识别特定类别的推文,其中推理和信息可关联至以下包含这些组件的独特类别:
- 陈述:仅呈现推理的独特案例,即某人正式表达或书写的观点,或为表达意见而采取的行动。
- 理由:完整论证,其推理基于推文中直接提及的信息(如来源引用或引述),从而揭示作者基于实际事实理解和判断的动机。
- 通知:仅提供信息的推文,如媒体频道推广其最新文章。
- 无类别:既不提供推理也不含信息的推文。
整体上,WRAP可为推文分类如下层级结构:
使用方法
安装transformers
后即可轻松使用本模型:
pip install -U transformers
随后可按如下方式生成推文分类:
from transformers import pipeline
pipe = pipeline("text-classification", model="TomatenMarc/WRAP")
prediction = pipe("Huggingface太棒了")
print(prediction)
注意:推文在分类前需经过预处理。
训练过程
最终模型使用名为TACO的完整打乱标注数据集进行训练,共包含1734条推文。该数据集主题分布为:#堕胎(25.9%)、#英国脱欧(29.0%)、#权力的游戏(11.0%)、#指环王力量之戒(12.1%)、#鱿鱼游戏(12.7%)和#推特收购(9.3%)。训练采用SimpleTransformers框架。
此外,TACO数据集的类别分布如下:
推理 |
非推理 |
865(49.88%) |
869(50.12%) |
信息 |
非信息 |
1081(62.34%) |
653(37.66%) |
理由 |
陈述 |
通知 |
无类别 |
581(33.50%) |
284(16.38%) |
500(28.84%) |
369(21.28%) |
注意:我们的训练使WRAP预测类别时,其(信息/推理)分类是基于推理或信息组件的类别聚合。
数据加载器
"data_loader": {
"type": "torch.utils.data.dataloader.DataLoader",
"args": {
"batch_size": 8,
"sampler": "torch.utils.data.sampler.RandomSampler"
}
}
fit()方法参数:
{
"epochs": 5,
"max_grad_norm": 1,
"optimizer_class": "<class 'torch.optim.adamw.AdamW'>",
"optimizer_params": {
"lr": 4e-05
},
"scheduler": "WarmupLinear",
"warmup_steps": 66
}
评估结果
我们采用6折(封闭主题)交叉验证法展示WRAP的最佳性能。使用训练部分描述的相同数据集和参数,在k-1分割上训练并在第k分割上预测。
同时评估其在TACO的6个主题(跨主题)上的泛化能力。每个k主题用于测试,其余k-1主题用于训练。
总体而言,WRAP分类器表现如下:
二分类任务
宏F1值 |
推理 |
信息 |
多类别 |
封闭主题 |
86.62% |
86.30% |
75.29% |
跨主题 |
86.27% |
84.90% |
73.54% |
多分类任务
微F1值 |
理由 |
陈述 |
通知 |
无类别 |
封闭主题 |
78.14% |
60.96% |
79.36% |
82.72% |
跨主题 |
77.05% |
58.33% |
78.45% |
80.33% |
环境影响
许可协议
WRAP © 2023 采用CC BY-NC-SA 4.0许可
引用
@inproceedings{feger-dietze-2024-bertweets,
title = "{BERT}weet{'}s {TACO} Fiesta: Contrasting Flavors On The Path Of Inference And Information-Driven Argument Mining On {T}witter",
author = "Feger, Marc and
Dietze, Stefan",
editor = "Duh, Kevin and
Gomez, Helena and
Bethard, Steven",
booktitle = "Findings of the Association for Computational Linguistics: NAACL 2024",
month = jun,
year = "2024",
address = "Mexico City, Mexico",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2024.findings-naacl.146",
doi = "10.18653/v1/2024.findings-naacl.146",
pages = "2256--2266"
}