Roberta Base Absa Ate Sentiment
R
Roberta Base Absa Ate Sentiment
由 gauneg 开发
基于RoBERTa-base的标记分类模型,用于提取方面词并预测其情感极性。
下载量 256
发布时间 : 11/2/2024
模型简介
该模型专为标记分类任务设计,能够从文本中提取表达情感的方面词,并预测这些方面词的情感极性(正面、负面或中性)。
模型特点
方面词提取
能够识别文本中表达情感的特定方面词。
情感极性预测
对提取的方面词进行情感分类(正面、负面或中性)。
多数据集训练
在SemEval共享任务和MAMS等多个数据集上进行训练,具有较好的泛化能力。
模型能力
文本情感分析
方面词提取
情感极性分类
使用案例
客户反馈分析
餐厅评论分析
分析顾客评论中提到的具体方面(如食物、服务)及其情感倾向。
示例中正确识别出'食物'(正面)和'服务'(负面)两个方面词及其情感。
产品评价分析
电子产品评价
从产品评价中提取用户关注的具体功能点及其满意度。
🚀 RoBERTa-base 方面级情感分析模型
本模型专为词元分类任务设计,能够提取方面词,并预测与提取的方面词相关的情感极性。提取的方面词将是输入文本中表达情感的部分。
🚀 快速开始
本模型适用于词元分类任务,可提取方面词并预测其情感极性。下面为你介绍如何使用该模型进行推理。
✨ 主要特性
- 能够从输入文本中提取方面词。
- 预测提取的方面词的情感极性。
📦 安装指南
文档未提及安装步骤,可参考 transformers
库的官方安装指南进行安装。
💻 使用示例
基础用法
直接使用管道进行端到端推理:
from transformers import pipeline
ate_sent_pipeline = pipeline(task='ner',
aggregation_strategy='simple',
model="gauneg/roberta-base-absa-ate-sentiment")
text_input = "Been here a few times and food has always been good but service really suffers when it gets crowded."
ate_sent_pipeline(text_input)
管道输出:
[{'entity_group': 'pos', #sentiment polarity
'score': 0.8447307,
'word': ' food', # aspect term
'start': 26,
'end': 30},
{'entity_group': 'neg', #sentiment polarity
'score': 0.81927896,
'word': ' service', #aspect term
'start': 56,
'end': 63}]
高级用法
使用 Auto
类进行词元级推理:
from transformers import AutoTokenizer, AutoModelForTokenClassification
model_id = "gauneg/roberta-base-absa-ate-sentiment"
tokenizer = AutoTokenizer.from_pretrained(model_id)
# the sequence of labels used during training
labels = {"B-neu": 1, "I-neu": 2, "O": 0, "B-neg": 3, "B-con": 4, "I-pos": 5, "B-pos": 6, "I-con": 7, "I-neg": 8, "X": -100}
id2lab = {idx: lab for lab, idx in labels.items()}
lab2id = {lab: idx for lab, idx in labels.items()}
model = AutoModelForTokenClassification.from_pretrained(model_id,
num_labels=len(labels), id2label=id2lab, label2id=lab2id)
# making one prediction at a time (should be padded/batched and truncated for efficiency)
text_input = "Been here a few times and food has always been good but service really suffers when it gets crowded."
tok_inputs = tokenizer(text_input, return_tensors="pt")
y_pred = model(**tok_inputs) # predicting the logits
# since first and the last tokens are excluded (<s> and </s>)
# they have to be removed before decoding the labels predicted against them
y_pred_fin = y_pred.logits.argmax(dim=-1)[0][1:-1] # selecting the most favoured labels for each token from the logits
decoded_pred = [id2lab[logx.item()] for logx in y_pred_fin]
## displaying the input tokens with predictions and skipping <s> and </s> tokens at the beginning and the end respectively
decoded_toks = tok_inputs['input_ids'][0][1:-1]
tok_levl_pred = list(zip(tokenizer.convert_ids_to_tokens(decoded_toks), decoded_pred))
结果存储在 tok_level_pred
变量中:
[('Be', 'O'),
('en', 'O'),
('Ġhere', 'O'),
('Ġa', 'O'),
('Ġfew', 'O'),
('Ġtimes', 'O'),
('Ġand', 'O'),
('Ġfood', 'B-pos'),
('Ġhas', 'O'),
('Ġalways', 'O'),
('Ġbeen', 'O'),
('Ġgood', 'O'),
('Ġbut', 'O'),
('Ġservice', 'B-neg'),
('Ġreally', 'O'),
('Ġsuffers', 'O'),
('Ġwhen', 'O'),
('Ġit', 'O'),
('Ġgets', 'O'),
('Ġcrowded', 'O'),
('.', 'O')]
📚 详细文档
数据集
本模型在以下数据集上进行了训练:
基准测试数据集评估
仅方面词提取(ATE)
第一次评估是针对词元提取任务,不考虑提取词元的极性。预期提取的词元是表达了情感的方面词元。(分数以 B - I - O 标签的微平均表示)
测试数据集 | 基础模型 | 微调模型 | 精确率 | 召回率 | F1 分数 |
---|---|---|---|---|---|
酒店评论 (SemEval 2015) | microsoft/deberta-v3-base | gauneg/deberta-v3-base-absa-ate-sentiment | 71.16 | 73.92 | 71.6 |
酒店评论 (SemEval 2015) | FacebookAI/roberta-base | (本模型) gauneg/roberta-base-absa-ate-sentiment | 70.92 | 72.28 | 71.07 |
酒店评论 (SemEval 2015) | microsoft/deberta-v3-large | gauneg/deberta-v3-large-absa-ate-sentiment-lora-adapter | 64.05 | 79.69 | 70.0 |
酒店评论 (SemEval 2015) | FacebookAI/roberta-large | gauneg/roberta-large-absa-ate-sentiment-lora-adapter | 66.29 | 72.78 | 68.92 |
------------ | ---------- | ---------------- | --------- | ------ | -------- |
笔记本电脑评论 (SemEval 2014) | microsoft/deberta-v3-large | gauneg/deberta-v3-large-absa-ate-sentiment-lora-adapter | 70.58 | 61.52 | 64.21 |
笔记本电脑评论 (SemEval 2014) | FacebookAI/roberta-large | gauneg/roberta-large-absa-ate-sentiment-lora-adapter | 66.38 | 50.62 | 54.31 |
笔记本电脑评论 (SemEval 2014) | microsoft/deberta-v3-base | gauneg/deberta-v3-base-absa-ate-sentiment | 70.82 | 48.97 | 52.08 |
笔记本电脑评论 (SemEval 2014) | FacebookAI/roberta-base | (本模型) gauneg/roberta-base-absa-ate-sentiment | 73.61 | 46.38 | 49.87 |
------------ | ---------- | ---------------- | --------- | ------ | -------- |
MAMS - ATE (2019) | microsoft/deberta-v3-base | gauneg/deberta-v3-base-absa-ate-sentiment | 81.07 | 79.66 | 80.35 |
MAMS - ATE (2019) | FacebookAI/roberta-base | (本模型) gauneg/roberta-base-absa-ate-sentiment | 79.91 | 78.95 | 79.39 |
MAMS - ATE (2019) | microsoft/deberta-v3-large | gauneg/deberta-v3-large-absa-ate-sentiment-lora-adapter | 74.46 | 84.5 | 78.75 |
MAMS - ATE (2019) | FacebookAI/roberta-large | gauneg/roberta-large-absa-ate-sentiment-lora-adapter | 77.8 | 79.81 | 78.75 |
------------ | ---------- | ---------------- | --------- | ------ | -------- |
餐厅评论 (SemEval 2014) | microsoft/deberta-v3-large | gauneg/deberta-v3-large-absa-ate-sentiment-lora-adapter | 88.59 | 87.0 | 87.45 |
餐厅评论 (SemEval 2014) | FacebookAI/roberta-large | gauneg/roberta-large-absa-ate-sentiment-lora-adapter | 92.26 | 82.95 | 86.57 |
餐厅评论 (SemEval 2014) | FacebookAI/roberta-base | (本模型) gauneg/roberta-base-absa-ate-sentiment | 93.07 | 81.95 | 86.32 |
餐厅评论 (SemEval 2014) | microsoft/deberta-v3-base | gauneg/deberta-v3-base-absa-ate-sentiment | 92.94 | 81.71 | 86.01 |
------------ | ---------- | ---------------- | --------- | ------ | -------- |
餐厅评论 (SemEval 2015) | microsoft/deberta-v3-base | gauneg/deberta-v3-base-absa-ate-sentiment | 72.91 | 75.4 | 72.74 |
餐厅评论 (SemEval 2015) | FacebookAI/roberta-large | gauneg/roberta-large-absa-ate-sentiment-lora-adapter | 70.54 | 77.48 | 72.63 |
餐厅评论 (SemEval 2015) | microsoft/deberta-v3-large | gauneg/deberta-v3-large-absa-ate-sentiment-lora-adapter | 68.32 | 79.84 | 72.28 |
餐厅评论 (SemEval 2015) | FacebookAI/roberta-base | (本模型) gauneg/roberta-base-absa-ate-sentiment | 71.94 | 74.75 | 71.84 |
------------ | ---------- | ---------------- | --------- | ------ | -------- |
餐厅评论 (SemEval 2016) | FacebookAI/roberta-large | gauneg/roberta-large-absa-ate-sentiment-lora-adapter | 70.22 | 75.83 | 71.84 |
餐厅评论 (SemEval 2016) | microsoft/deberta-v3-base | gauneg/deberta-v3-base-absa-ate-sentiment | 71.54 | 73.38 | 71.2 |
餐厅评论 (SemEval 2016) | FacebookAI/roberta-base | (本模型) gauneg/roberta-base-absa-ate-sentiment | 71.35 | 72.78 | 70.85 |
餐厅评论 (SemEval 2016) | microsoft/deberta-v3-large | gauneg/deberta-v3-large-absa-ate-sentiment-lora-adapter | 66.68 | 77.97 | 70.79 |
方面情感评估
本次评估考虑了词元提取任务以及提取词元的极性。预期提取的词元是表达了情感的方面词元以及情感的极性。(分数以宏平均表示)
测试数据集 | 基础模型 | 微调模型 | 精确率 | 召回率 | F1 分数 |
---|---|---|---|---|---|
酒店评论 (SemEval 2015) | microsoft/deberta-v3-large | gauneg/deberta-v3-large-absa-ate-sentiment-lora-adapter | 51.92 | 65.55 | 54.94 |
酒店评论 (SemEval 2015) | FacebookAI/roberta-base | (本模型) gauneg/roberta-base-absa-ate-sentiment | 54.62 | 53.65 | 54.08 |
酒店评论 (SemEval 2015) | microsoft/deberta-v3-base | gauneg/deberta-v3-base-absa-ate-sentiment | 55.43 | 56.53 | 54.03 |
酒店评论 (SemEval 2015) | FacebookAI/roberta-large | gauneg/roberta-large-absa-ate-sentiment-lora-adapter | 52.88 | 55.19 | 53.85 |
------------ | ---------- | ---------------- | --------- | ------ | -------- |
笔记本电脑评论 (SemEval 2014) | microsoft/deberta-v3-large | gauneg/deberta-v3-large-absa-ate-sentiment-lora-adapter | 44.25 | 41.55 | 42.81 |
笔记本电脑评论 (SemEval 2014) | microsoft/deberta-v3-base | gauneg/deberta-v3-base-absa-ate-sentiment | 46.15 | 33.23 | 37.09 |
笔记本电脑评论 (SemEval 2014) | FacebookAI/roberta-large | gauneg/roberta-large-absa-ate-sentiment-lora-adapter | 41.7 | 34.38 | 36.93 |
笔记本电脑评论 (SemEval 2014) | FacebookAI/roberta-base | (本模型) gauneg/roberta-base-absa-ate-sentiment | 44.98 | 31.87 | 35.67 |
------------ | ---------- | ---------------- | --------- | ------ | -------- |
MAMS - ATE (2019) | FacebookAI/roberta-base | (本模型) gauneg/roberta-base-absa-ate-sentiment | 72.06 | 72.98 | 72.49 |
MAMS - ATE (2019) | microsoft/deberta-v3-base | gauneg/deberta-v3-base-absa-ate-sentiment | 72.97 | 71.63 | 72.26 |
MAMS - ATE (2019) | FacebookAI/roberta-large | gauneg/roberta-large-absa-ate-sentiment-lora-adapter | 69.34 | 73.3 | 71.07 |
MAMS - ATE (2019) | microsoft/deberta-v3-large | gauneg/deberta-v3-large-absa-ate-sentiment-lora-adapter | 65.74 | 75.11 | 69.77 |
------------ | ---------- | ---------------- | --------- | ------ | -------- |
餐厅评论 (SemEval 2014) | FacebookAI/roberta-large | gauneg/roberta-large-absa-ate-sentiment-lora-adapter | 61.15 | 58.46 | 59.74 |
餐厅评论 (SemEval 2014) | FacebookAI/roberta-base | (本模型) gauneg/roberta-base-absa-ate-sentiment | 60.13 | 56.81 | 58.13 |
餐厅评论 (SemEval 2014) | microsoft/deberta-v3-large | gauneg/deberta-v3-large-absa-ate-sentiment-lora-adapter | 56.79 | 59.3 | 57.93 |
餐厅评论 (SemEval 2014) | microsoft/deberta-v3-base | gauneg/deberta-v3-base-absa-ate-sentiment | 58.99 | 54.76 | 56.45 |
------------ | ---------- | ---------------- | --------- | ------ | -------- |
餐厅评论 (SemEval 2015) | FacebookAI/roberta-large | gauneg/roberta-large-absa-ate-sentiment-lora-adapter | 53.89 | 55.7 | 54.11 |
餐厅评论 (SemEval 2015) | FacebookAI/roberta-base | (本模型) gauneg/roberta-base-absa-ate-sentiment | 54.36 | 55.38 | 53.6 |
餐厅评论 (SemEval 2015) | microsoft/deberta-v3-large | gauneg/deberta-v3-large-absa-ate-sentiment-lora-adapter | 51.67 | 56.58 | 53.29 |
餐厅评论 (SemEval 2015) | microsoft/deberta-v3-base | gauneg/deberta-v3-base-absa-ate-sentiment | 54.55 | 53.68 | 53.12 |
------------ | ---------- | ---------------- | --------- | ------ | -------- |
餐厅评论 (SemEval 2016) | FacebookAI/roberta-large | gauneg/roberta-large-absa-ate-sentiment-lora-adapter | 53.7 | 60.49 | 55.05 |
餐厅评论 (SemEval 2016) | FacebookAI/roberta-base | (本模型) gauneg/roberta-base-absa-ate-sentiment | 52.31 | 54.58 | 52.33 |
餐厅评论 (SemEval 2016) | microsoft/deberta-v3-base | gauneg/deberta-v3-base-absa-ate-sentiment | 52.07 | 54.58 | 52.15 |
餐厅评论 (SemEval 2016) | microsoft/deberta-v3-large | gauneg/deberta-v3-large-absa-ate-sentiment-lora-adapter | 49.07 | 56.5 | 51.25 |
📄 许可证
本模型采用 Apache - 2.0 许可证。
Indonesian Roberta Base Posp Tagger
MIT
这是一个基于印尼语RoBERTa模型微调的词性标注模型,在indonlu数据集上训练,用于印尼语文本的词性标注任务。
序列标注
Transformers 其他

I
w11wo
2.2M
7
Bert Base NER
MIT
基于BERT微调的命名实体识别模型,可识别四类实体:地点(LOC)、组织机构(ORG)、人名(PER)和杂项(MISC)
序列标注 英语
B
dslim
1.8M
592
Deid Roberta I2b2
MIT
该模型是基于RoBERTa微调的序列标注模型,用于识别和移除医疗记录中的受保护健康信息(PHI/PII)。
序列标注
Transformers 支持多种语言

D
obi
1.1M
33
Ner English Fast
Flair自带的英文快速4类命名实体识别模型,基于Flair嵌入和LSTM-CRF架构,在CoNLL-03数据集上达到92.92的F1分数。
序列标注
PyTorch 英语
N
flair
978.01k
24
French Camembert Postag Model
基于Camembert-base的法语词性标注模型,使用free-french-treebank数据集训练
序列标注
Transformers 法语

F
gilf
950.03k
9
Xlm Roberta Large Ner Spanish
基于XLM-Roberta-large架构微调的西班牙语命名实体识别模型,在CoNLL-2002数据集上表现优异。
序列标注
Transformers 西班牙语

X
MMG
767.35k
29
Nusabert Ner V1.3
MIT
基于NusaBert-v1.3在印尼语NER任务上微调的命名实体识别模型
序列标注
Transformers 其他

N
cahya
759.09k
3
Ner English Large
Flair框架内置的英文4类大型NER模型,基于文档级XLM-R嵌入和FLERT技术,在CoNLL-03数据集上F1分数达94.36。
序列标注
PyTorch 英语
N
flair
749.04k
44
Punctuate All
MIT
基于xlm-roberta-base微调的多语言标点符号预测模型,支持12种欧洲语言的标点符号自动补全
序列标注
Transformers

P
kredor
728.70k
20
Xlm Roberta Ner Japanese
MIT
基于xlm-roberta-base微调的日语命名实体识别模型
序列标注
Transformers 支持多种语言

X
tsmatz
630.71k
25
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98
智启未来,您的人工智能解决方案智库
简体中文