🚀 基于LUKE的日语情感分析模型
本模型基于预训练模型进行微调,能够精准分析文本中蕴含的情感倾向,为文本情感挖掘提供了强大的工具。
🚀 快速开始
此模型是对Luke-japanese-large-lite进行微调得到的。它能够分析文章中包含了八种情感(喜悦、悲伤、期待、惊讶、愤怒、恐惧、厌恶、信任)中的哪一种。该模型使用了wrime数据集(https://huggingface.co/datasets/shunk031/wrime)进行训练。
✨ 主要特性
- 多情感分析:可以分析文本中包含的八种不同情感。
- 基于优质预训练模型:基于Luke-japanese-large-lite进行微调,具有良好的性能。
- 使用特定数据集训练:使用wrime数据集进行训练,更适合相关场景的情感分析。
📦 安装指南
步骤1:安装Python、PyTorch和SentencePiece,并更新Transformers库
由于旧版本的Transformers库可能不包含LukeTokenizer
,因此需要更新Transformers库,并安装Python、PyTorch和SentencePiece。
💻 使用示例
基础用法
from transformers import AutoTokenizer, AutoModelForSequenceClassification, LukeConfig
import torch
tokenizer = AutoTokenizer.from_pretrained("Mizuiro-sakura/luke-japanese-large-sentiment-analysis-wrime")
config = LukeConfig.from_pretrained('Mizuiro-sakura/luke-japanese-large-sentiment-analysis-wrime', output_hidden_states=True)
model = AutoModelForSequenceClassification.from_pretrained('Mizuiro-sakura/luke-japanese-large-sentiment-analysis-wrime', config=config)
text='すごく楽しかった。また行きたい。'
max_seq_length=512
token=tokenizer(text,
truncation=True,
max_length=max_seq_length,
padding="max_length")
output=model(torch.tensor(token['input_ids']).unsqueeze(0), torch.tensor(token['attention_mask']).unsqueeze(0))
max_index=torch.argmax(torch.tensor(output.logits))
if max_index==0:
print('joy、うれしい')
elif max_index==1:
print('sadness、悲しい')
elif max_index==2:
print('anticipation、期待')
elif max_index==3:
print('surprise、驚き')
elif max_index==4:
print('anger、怒り')
elif max_index==5:
print('fear、恐れ')
elif max_index==6:
print('disgust、嫌悪')
elif max_index==7:
print('trust、信頼')
📚 详细文档
什么是Luke?
LUKE(Language Understanding with Knowledge-based Embeddings)是一种基于Transformer的新型预训练上下文词和实体表示模型。LUKE将给定文本中的单词和实体视为独立的标记,并输出它们的上下文表示。LUKE采用了一种实体感知的自注意力机制,这是Transformer自注意力机制的扩展,在计算注意力分数时会考虑标记的类型(单词或实体)。
LUKE在五个流行的NLP基准测试中取得了最先进的结果,包括SQuAD v1.1(抽取式问答)、CoNLL-2003(命名实体识别)、ReCoRD(完形填空式问答)、TACRED(关系分类)和Open Entity(实体类型)。
luke-japanese是单词和实体的知识增强型预训练Transformer模型LUKE的日语版本。LUKE将单词和实体视为独立的标记,并输出它们的上下文表示。
📄 许可证
本模型采用MIT许可证。
🔗 引用
[1]@inproceedings{yamada2020luke,
title={LUKE: Deep Contextualized Entity Representations with Entity-aware Self-attention},
author={Ikuya Yamada and Akari Asai and Hiroyuki Shindo and Hideaki Takeda and Yuji Matsumoto},
booktitle={EMNLP},
year={2020}
}
🙏 致谢
感谢Luke的开发者山田先生(@ikuyamada)和Studio ousia(@StudioOusia)。