U

Unbiased Toxic Roberta

由 unitary 开发
基于PyTorch Lightning和Hugging Face Transformers的毒性评论分类工具,提供针对Jigsaw竞赛训练的三种模型
下载量 52.70k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

Detoxify是一个用于检测文本毒性的工具,包含针对不同Jigsaw竞赛训练的三种模型,能够识别威胁、淫秽、侮辱和基于身份仇恨等不同类型的毒性内容。

模型特点

多模型支持
提供三种针对不同Jigsaw竞赛训练的模型,分别适用于不同场景的毒性检测
多语言支持
multilingual模型支持7种语言的毒性检测
偏见最小化
unbiased模型专门针对减少身份提及相关的偏见进行了优化

模型能力

毒性内容检测
多标签分类
多语言文本分析
偏见评估

使用案例

内容审核
社交媒体评论审核
自动识别和标记社交媒体平台上的有毒评论
可帮助审核人员快速识别需要处理的评论
论坛内容过滤
过滤在线论坛中的侮辱性、威胁性或仇恨言论
维护健康的讨论环境
学术研究
语言偏见研究
研究不同语言和文化背景下的毒性表达方式