T

Toxiguardrail

由 nicholasKluge 开发
ToxiGuardrail 是基于 RoBERTa 微调的模型,用于评估文本的毒性和潜在危害。
下载量 263.36k
发布时间 : 6/7/2023

模型简介

该模型能够对句子的毒性和潜在危害进行评分,适用于内容审核和安全对话系统。

模型特点

毒性评分
能够对文本的毒性和潜在危害进行评分,正得分表示无害,负得分表示有害。
基于 RoBERTa
基于 RoBERTa 模型进行微调,具有较好的性能和准确性。
多语言支持
支持英语文本的毒性检测。

模型能力

文本毒性检测
内容安全评估

使用案例

内容审核
社交媒体内容过滤
用于检测社交媒体上的有害内容,自动过滤或标记有毒言论。
能够准确识别并评分有害文本,帮助维护社区安全。
安全对话系统
AI 对话安全评估
用于评估 AI 生成的回复是否含有有害内容,确保对话安全。
能够区分有害和无害回复,提供安全评分。
AIbase
智启未来,您的人工智能解决方案智库
简体中文