许可证: mit
基础模型: roberta-base
标签:
- 压力
- 分类
- 玻璃门(Glassdoor)
评估指标:
- 准确率
- F1值
- 精确率
- 召回率
示例输入:
- 文本: "某些领导更重视表面功夫而非实际产出,这带来了巨大压力。"
示例标题: 压力示例1
- 文本: "工作压力过大。"
示例标题: 压力示例2
- 文本: "人手不足,大量方案反复修改,不可预测性高,技术条件糟糕。"
示例标题: 压力示例3
- 文本: "环境友好,工作与生活平衡良好。"
示例标题: 无压力示例1
模型索引:
- 名称: roberta-base_主题分类_纽约时报新闻
结果:
- 任务:
名称: 文本分类
类型: 文本分类
数据集:
名称: 纽约时报主题
类型: 新闻
评估指标:
- 类型: F1值
名称: F1
值: 0.97
- 类型: 准确率
名称: 准确率
值: 0.97
- 类型: 精确率
名称: 精确率
值: 0.97
- 类型: 召回率
名称: 召回率
值: 0.97
管道标签: 文本分类
roberta-base_压力分类模型
本模型是基于roberta-base在10万条员工评论的Glassdoor数据集上微调而成。评估集表现如下:
- 损失值: 0.1800
- 准确率: 0.9647
- F1值: 0.9647
- 精确率: 0.9647
- 召回率: 0.9647
训练数据
数据分类标准:
训练过程
超参数设置
- 学习率: 5e-05
- 训练批大小: 8
- 评估批大小: 8
- 随机种子: 42
- 优化器: Adam(β1=0.9,β2=0.999,ε=1e-08)
- 学习率调度器类型: 线性
- 预热步数: 500
- 训练轮次: 5
训练结果
训练损失 |
轮次 |
步数 |
验证损失 |
准确率 |
F1值 |
精确率 |
召回率 |
0.704 |
1.0 |
8000 |
0.6933 |
0.5 |
0.3333 |
0.25 |
0.5 |
0.6926 |
2.0 |
16000 |
0.6980 |
0.5 |
0.3333 |
0.25 |
0.5 |
0.0099 |
3.0 |
24000 |
0.1800 |
0.9647 |
0.9647 |
0.9647 |
0.9647 |
0.2727 |
4.0 |
32000 |
0.2243 |
0.9526 |
0.9526 |
0.9527 |
0.9526 |
0.0618 |
5.0 |
40000 |
0.2128 |
0.9536 |
0.9536 |
0.9546 |
0.9536 |
模型表现
- |
精确率 |
召回率 |
F1值 |
支持数 |
无压力 |
0.96 |
0.97 |
0.97 |
10000 |
有压力 |
0.97 |
0.96 |
0.97 |
10000 |
|
|
|
|
|
准确率 |
|
|
0.97 |
20000 |
宏平均 |
0.97 |
0.97 |
0.97 |
20000 |
加权平均 |
0.97 |
0.97 |
0.97 |
20000 |
使用指南
from transformers import AutoTokenizer, AutoModelForSequenceClassification
from transformers import pipeline
tokenizer = AutoTokenizer.from_pretrained("dstefa/roberta-base_topic_classification_nyt_news")
model = AutoModelForSequenceClassification.from_pretrained("dstefa/roberta-base_topic_classification_nyt_news")
pipe = pipeline("text-classification", model=model, tokenizer=tokenizer, device=0)
text = "某些领导更重视表面功夫而非实际产出,这带来了巨大压力。"
pipe(text)
框架版本
- Transformers 4.32.1
- PyTorch 2.1.0+cu121
- Datasets 2.12.0
- Tokenizers 0.13.2