🚀 NSFW图像检测模型
这是一个基于“google/vit-base-patch16-224-in21k”架构微调的视觉变换器(ViT)模型,用于NSFW图像分类。它能够高精度地检测图像中的不适宜内容,为图像内容审核等场景提供可靠支持。
🚀 快速开始
本模型是经过微调的视觉变换器(ViT)模型,专门用于NSFW图像分类。以下是使用该模型的示例代码。
✨ 主要特性
- 基于Transformer编码器架构,专为图像分类任务优化。
- 经过微调,能高精度检测图像中的不适宜工作(NSFW)内容。
📦 安装指南
文档未提及具体安装步骤,可跳过该章节。
💻 使用示例
基础用法
使用transformers
库的pipeline
方法进行简单调用:
from PIL import Image
from transformers import pipeline
img = Image.open("<path_to_image_file>")
classifier = pipeline("image-classification", model="ashishupadhyay/NSFW_DETECTION")
classifier(img)
高级用法
直接使用模型进行推理:
import torch
from PIL import Image
from transformers import AutoModelForImageClassification, ViTImageProcessor
img = Image.open("<path_to_image_file>")
model = AutoModelForImageClassification.from_pretrained("ashishupadhyay/NSFW_DETECTION")
processor = ViTImageProcessor.from_pretrained('ashishupadhyay/NSFW_DETECTION')
with torch.no_grad():
inputs = processor(images=img, return_tensors="pt")
outputs = model(**inputs)
logits = outputs.logits
predicted_label = logits.argmax(-1).item()
model.config.id2label[predicted_label]
📚 详细文档
模型描述
此模型是Transformer编码器架构的变体,适用于图像分类任务。它经过专门微调,能高精度检测图像中的不适宜工作(NSFW)内容。
训练详情
属性 |
详情 |
基础模型 |
google/vit-base-patch16-224-in21k |
图像分辨率 |
224x224像素 |
批量大小 |
16 |
学习率 |
5e - 5 |
训练数据集 |
80,000张图像(专有数据集) |
分类 |
2(正常,NSFW) |
训练统计
指标 |
数值 |
评估损失 |
0.07463 |
准确率 |
98.04% |
评估运行时间 |
304.98秒 |
每秒样本数 |
52.46 |
每秒步数 |
3.28 |
预期用途与限制
预期用途
限制
- 仅专门用于NSFW检测。
- 对于其他任务,性能可能会有所不同。
- 应与内容指南和法规结合使用。
重要提示
⚠️ 重要提示
该模型是专门针对NSFW内容检测进行微调的,请负责任且符合道德地使用,并遵守适用的内容指南和法规。模型性能可能会因输入图像的质量和特征而有所不同。
参考文献
免责声明
模型的性能可能会受到训练数据的质量和代表性的影响。用户在实施之前应评估模型对其特定应用和数据集的适用性。
📄 许可证
本项目采用MIT许可证。