R
Roberta Toxicity Classifier
由 s-nlp 开发
基于RoBERTa-large微调的毒性评论分类模型,在Jigsaw竞赛数据集上训练,用于识别英文文本中的毒性内容。
下载量 80.61k
发布时间 : 3/2/2022
模型简介
该模型专门用于对英文评论进行毒性分类,能够有效识别文本中的有害内容。基于200万条样本训练,在测试集上表现优异。
模型特点
高性能分类
在Jigsaw竞赛测试集上达到AUC-ROC 0.98和F1分数0.76的优秀表现
大规模训练数据
整合了Jigsaw三届竞赛约200万条英文样本进行训练
基于RoBERTa优化
采用鲁棒优化的RoBERTa-large预训练模型进行微调
模型能力
文本毒性分类
有害内容检测
自然语言处理
使用案例
内容审核
社交媒体评论过滤
自动识别并过滤社交媒体平台上的有害评论
有效减少平台上的毒性内容
在线社区管理
帮助论坛和社区管理员快速识别不当言论
提高社区内容质量
学术研究
语言毒性研究
用于研究网络语言中的毒性特征和模式
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文