L

Llavaguard V1.2 7B OV

由 AIML-TUDA 开发
LlavaGuard是基于视觉语言模型的安全评估系统,主要用于图像内容的安全分类和合规性检查。
下载量 193
发布时间 : 11/7/2024
模型介绍
内容详情
替代品

模型简介

LlavaGuard是一个基于视觉语言模型的安全评估系统,旨在对用户提供的图像内容进行安全评估,判断其是否符合预设的安全政策类别。

模型特点

32K令牌上下文窗口
支持长达32K令牌的上下文窗口,适合处理复杂内容评估任务。
改进推理逻辑
通过改进推理逻辑实现了当前最佳综合性能。
学术研究导向
主要面向研究人员,旨在用于学术研究。

模型能力

图像内容安全评估
多类别政策合规性检查
JSON格式结果输出

使用案例

内容审核
社交媒体内容审核
用于自动检测社交媒体平台上的违规图像内容。
可识别仇恨、暴力等违规内容
学术研究
多模态安全研究
用于研究视觉语言模型在内容安全领域的应用。