language: zh
tags:
- 文本分类
- PyTorch
- ModernBERT
- 偏见
- 多类别分类
- 多标签分类
datasets:
- 合成偏见语料库
license: mit
metrics:
- 准确率
- F1值
- 精确率
- 召回率
- 马修斯相关系数
base_model:
- answerdotai/ModernBERT-large
widget:
- text: "女性数学能力差。"
library_name: transformers

模型概述
本模型基于ModernBERT-large微调,训练数据为Mistal 7B生成的偏见陈述与问题合成数据集(源自GUS-Net论文)。该模型可识别并分类文本中的多种偏见类型,包括种族、宗教、性别、年龄等,是自然语言处理中偏见检测与缓解的重要工具。
模型详情
- 基础模型: ModernBERT-large
- 微调数据集: 合成偏见语料库
- 标签数量: 11
- 问题类型: 多标签分类
- 语言: 英语
- 许可证: MIT
- 微调框架: Hugging Face Transformers
使用示例
通过Hugging Face Transformers调用模型的方法:
from transformers import pipeline
classifier = pipeline(
"text-classification",
model="cirimus/modernbert-large-bias-type-classifier",
return_all_scores=True
)
text = "高个子的人都很笨拙。"
predictions = classifier(text)
for pred in sorted(predictions[0], key=lambda x: x['score'], reverse=True)[:5]:
print(f"{pred['label']}: {pred['score']:.3f}")
训练方法
模型使用以下超参数进行偏见检测微调:
- 学习率:
3e-5
- 批大小: 16
- 权重衰减:
0.01
- 预热步数: 500
- 优化器: AdamW
- 评估指标: 精确率、召回率、加权F1值、准确率
数据集
合成数据集包含Mistal 7B生成的偏见陈述与问题,涵盖11类偏见:
- 种族
- 宗教
- 性别
- 年龄
- 国籍
- 性取向
- 社会经济
- 教育
- 残障
- 政治
- 身体特征
评估结果
模型在合成数据集测试集上的表现如下(阈值0.5
):
宏观平均:
指标 |
值 |
准确率 |
0.983 |
精确率 |
0.930 |
召回率 |
0.914 |
F1值 |
0.921 |
马修斯相关系数 |
0.912 |
单标签结果:
标签 |
准确率 |
精确率 |
召回率 |
F1值 |
马修斯系数 |
支持数 |
阈值 |
种族 |
0.975 |
0.871 |
0.889 |
0.880 |
0.866 |
388 |
0.5 |
宗教 |
0.994 |
0.962 |
0.970 |
0.966 |
0.962 |
335 |
0.5 |
性别 |
0.976 |
0.930 |
0.925 |
0.927 |
0.913 |
615 |
0.5 |
年龄 |
0.990 |
0.964 |
0.931 |
0.947 |
0.941 |
375 |
0.5 |
国籍 |
0.972 |
0.924 |
0.881 |
0.902 |
0.886 |
554 |
0.5 |
性取向 |
0.993 |
0.960 |
0.957 |
0.958 |
0.955 |
301 |
0.5 |
社会经济 |
0.964 |
0.909 |
0.818 |
0.861 |
0.842 |
516 |
0.5 |
教育 |
0.982 |
0.873 |
0.933 |
0.902 |
0.893 |
330 |
0.5 |
残障 |
0.986 |
0.923 |
0.887 |
0.905 |
0.897 |
283 |
0.5 |
政治 |
0.988 |
0.958 |
0.938 |
0.948 |
0.941 |
438 |
0.5 |
身体特征 |
0.993 |
0.961 |
0.920 |
0.940 |
0.936 |
238 |
0.5 |
应用场景
该模型适用于以下场景的文本偏见检测与分类:
局限性
- 数据合成性: 合成数据可能无法完全反映现实偏见
- 类别重叠: 部分偏见类型可能存在交叉
- 领域泛化: 在非合成数据领域的表现可能受限
环境影响
- 硬件: NVIDIA RTX4090
- 训练时长: ~2小时
- 碳排放: ~0.08千克CO2(通过ML CO2计算器估算)
引用
使用本模型时请引用:
@inproceedings{JunquedeFortuny2025c,
title = {基于ModernBERT-Large的偏见检测},
author = {恩里克·琼克·德福图尼},
year = {2025},
howpublished = {\url{https://huggingface.co/cirimus/modernbert-large-bias-type-classifier}},
}