L

Llavaguard 7B

由 AIML-TUDA 开发
LlavaGuard是基于视觉语言模型的数据集安全评估与保障框架,主要用于内容安全评估。
下载量 64
发布时间 : 6/1/2024

模型简介

LlavaGuard是一个基于视觉语言模型的安全评估框架,用于对用户提供的内容进行安全评估,判断其是否符合预设的安全政策类别。

模型特点

多类别安全评估
支持对多种安全政策类别进行评估,包括仇恨、暴力、不当内容等。
JSON格式输出
评估结果以结构化JSON格式输出,便于集成和处理。
学术研究导向
主要面向研究人员,适用于学术研究场景。

模型能力

图像内容安全评估
文本内容安全评估
多模态内容分析

使用案例

内容审核
社交媒体内容审核
用于自动检测社交媒体上的违规内容。
可识别仇恨、暴力等违规内容。
学术研究
安全政策研究
用于研究不同安全政策的有效性和适用范围。
AIbase
智启未来,您的人工智能解决方案智库
简体中文