library_name: transformers
tags: []
模型卡片:Model ID
这是一个基于BERT-base-uncased微调的亚马逊评论情感分析模型。该模型根据文本内容将评论分类为正面或负面,使用亚马逊极性数据集中的1万条训练样本进行微调,并在5千条测试样本上完成评估。
模型详情
模型描述
本卡片介绍的是BERT-Amazon-Sentiment模型——一个基于BERT-base-uncased架构、专为亚马逊评论二元情感分类任务微调的模型。该模型使用亚马逊极性数据集的子集(1万训练样本/5千测试样本)进行训练,可将评论判定为"积极"或"消极"两类。
开发者:Usman Ahmad
资助方:自筹资金
发布者:Usman Ahmad
模型类型:基于Transformer的BERT文本分类模型
支持语言(NLP):英语
许可证:MIT License
微调基础模型:bert-base-uncased
模型来源 [可选]
- 代码库: [需补充信息]
- 论文 [可选]: [需补充信息]
- 演示 [可选]: [需补充信息]
用途
直接使用
本模型可直接用于英文文本(特别是亚马逊商品评论)的情感分析,无需额外微调即可完成积极/消极情感分类。
下游任务使用 [可选]
[需补充信息]
非适用场景
本模型不适用于:
非英语文本——仅针对英文亚马逊评论训练
中性情感检测——仅支持积极/消极二元分类
讽刺及复杂情感——可能无法识别反讽或混合语气评论
法律医疗建议——非专业领域设计
仇恨言论检测——未针对有害内容审核优化
超出设计范围的使用可能导致结果失真
[需补充信息]
偏差、风险与局限
[需补充信息]
使用建议
注意偏差——基于亚马逊评论训练,对其他平台泛化能力有限
领域适配——建议针对特定领域(如医疗、法律)进行微调
讽刺识别——需额外预处理或集成方法提升检测效果
置信度参考——应结合模型置信度评估预测可靠性
伦理使用——关键决策需配合人工审核
使用者(包括直接和下游用户)应充分了解模型的潜在风险与局限。需补充更多信息以完善建议。
快速开始
使用以下代码快速调用模型:
from transformers import pipeline
sentiment_pipeline = pipeline("text-classification", model="Asteroid-Destroyer/bert-amazon-sentiment")
review = "产品质量超棒,使用体验极佳!"
result = sentiment_pipeline(review)
print(result)
训练详情
训练数据
模型使用亚马逊极性数据集的1万条样本进行训练,5千条样本测试。数据集包含标注为积极(1)/消极(0)的亚马逊商品评论。
数据源:Hugging Face上的Amazon Polarity数据集 https://huggingface.co/datasets/fancyzhx/amazon_polarity
预处理:
- 使用BERT分词器(bert-base-uncased)
- 最大序列长度:512(超长部分截断)
- 填充处理:匹配模型输入尺寸
训练流程
模型基于bert-base-uncased在1万条亚马逊极性数据上微调,参数如下:
优化器:AdamW
学习率策略:带热启动的线性衰减
损失函数:CrossEntropyLoss
批大小:16
最大序列长度:512
训练轮次:3
硬件环境:Google Colab(T4 GPU)
预处理 [可选]
[需补充信息]
训练超参数
速度/规模/耗时 [可选]
[需补充信息]
评估
测试数据、要素与指标
测试数据
[需补充信息]
评估要素
[需补充信息]
评估指标
[需补充信息]
评估结果
[需补充信息]
总结
模型检验 [可选]
[需补充信息]
环境影响
碳排放量可通过Lacoste等人(2019)提出的机器学习影响计算器估算。
- 硬件类型: [需补充信息]
- 使用时长: [需补充信息]
- 云服务商: [需补充信息]
- 计算区域: [需补充信息]
- 碳排放量: [需补充信息]
技术规格 [可选]
模型架构与目标
[需补充信息]
计算基础设施
[需补充信息]
硬件
[需补充信息]
软件
[需补充信息]
引用 [可选]
Bibtex格式:
[需补充信息]
APA格式:
[需补充信息]
术语表 [可选]
[需补充信息]
补充信息 [可选]
[需补充信息]
模型卡片作者 [可选]
[需补充信息]
模型卡片联系人
[需补充信息]