D

Distilbert Base Multilingual Cased Toxicity

由 citizenlab 开发
基于JIGSAW毒性评论分类挑战赛数据集训练的多语言文本毒性分类模型,支持10种语言。
下载量 12.69k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型用于检测文本中的毒性内容,基于Distil-Bert架构,针对多语言环境优化,适用于内容审核等场景。

模型特点

多语言支持
支持10种欧洲主要语言的毒性内容检测
高效轻量
基于Distil-Bert架构,在保持性能的同时减少计算资源需求
高准确率
在JIGSAW数据集上达到94.25%的准确率

模型能力

文本毒性检测
多语言文本分类
内容审核

使用案例

内容审核
社交媒体评论过滤
自动识别并过滤社交媒体上的毒性评论
准确率94.25%,F1分数0.945
在线社区管理
帮助社区管理员识别不当言论