A

Aegis AI Content Safety LlamaGuard Permissive 1.0

由 nvidia 开发
基于Llama Guard微调的内容安全检测模型,覆盖13类关键安全风险
下载量 316
发布时间 : 4/17/2024
模型介绍
内容详情
替代品

模型简介

该模型是一个大语言模型内容安全检测系统,用于识别和分类文本中的不安全内容。它基于Llama Guard架构,在Nvidia内容安全数据集上进行了参数高效指令微调。

模型特点

全面的安全风险覆盖
覆盖Nvidia定义的13类关键安全风险分类体系,包括1类安全内容和1类'需谨慎'内容
灵活的审核能力
可对用户输入、部分对话或完整对话进行审核,输出安全状态及违反的策略类别
可扩展的安全策略
支持通过指令扩展新的安全风险类别和策略
高效的微调方法
使用参数高效指令微调(PEFT)技术,在约11,000条标注对话数据上训练

模型能力

文本内容安全检测
多轮对话审核
安全风险分类
自定义策略扩展

使用案例

内容安全
大语言模型内容防护
为通用大语言模型生成内容提供安全防护
能有效识别不安全内容并分类
文本毒性检测
用于任意文本内容的毒性分类