L

Llavaguard V1.2 0.5B OV

由 AIML-TUDA 开发
LlavaGuard是基于视觉语言模型的安全评估守护者,主要用于图像内容的安全分类和违规检测。
下载量 239
发布时间 : 11/22/2024
模型介绍
内容详情
替代品

模型简介

LlavaGuard是一个轻量级的视觉语言模型,用于对用户提供的内容进行安全评估,判断是否违反预设的安全政策。

模型特点

高效轻量级
在保持强劲性能的同时优化推理效率,参数规模仅为0.5B。
大上下文窗口
支持32K token的上下文窗口,适合处理长文本和复杂内容。
多政策分类
支持9大类安全政策的分类评估,包括仇恨内容、暴力、性相关内容等。

模型能力

图像安全评估
多政策分类
JSON格式输出

使用案例

内容审核
社交媒体内容审核
自动检测用户上传的图片是否包含违规内容
可识别9大类违规内容,准确率较高
学术研究
安全政策研究
用于研究不同安全政策在实际内容审核中的效果