library_name: transformers
tags:
- 计算机视觉
- 图像分类
- 视觉变换器
- 深度伪造检测
- 二分类
- pytorch框架
license: mit开源协议
metrics:
- 准确率: 99.20%
base_model:
- facebook/deit-base-distilled-patch16-224
pipeline_tag: 图像分类
Virtus模型卡
Virtus是一个经过微调的视觉变换器(ViT)模型,专为二值图像分类任务设计,特别训练用于区分真实图像与深度伪造图像。该模型在包含19万张图像的平衡数据集上实现了99.2%的准确率。
模型详情
模型描述
Virtus基于facebook/deit-base-distilled-patch16-224
架构,通过大量真实与伪造人脸图像数据集进行二分类任务微调。训练过程包含类别平衡处理、数据增强技术,并采用准确率和F1分数作为评估指标。
模型来源
用途
直接应用
本模型可用于预测输入图像属于真实或深度伪造类别,可部署于图像分析流水线,或集成至需要媒体真实性检测的应用系统。
下游应用
适用于构建更广泛的深度伪造检测系统、识别合成媒体的教育工具,或作为在线平台的预筛选系统。
非适用场景
- 视频或音频中的深度伪造检测
- 超出真伪二分类范畴的通用物体分类任务
偏差、风险与局限
虽然数据集经过平衡处理,仍可能存在面部特征、光照条件或人口统计学的潜在偏差。模型对非标准输入尺寸或严重遮挡的人脸鲁棒性不足。
使用建议
- 仅适用于与训练集相似的正面人脸图像
- 关键决策场景需配合人工复核
- 建议定期使用更新数据重新评估性能
快速开始
from transformers import AutoFeatureExtractor, AutoModelForImageClassification
from PIL import Image
import torch
model = AutoModelForImageClassification.from_pretrained("agasta/virtus")
extractor = AutoFeatureExtractor.from_pretrained("agasta/virtus")
image = Image.open("图片路径.jpg")
inputs = extractor(images=image, return_tensors="pt")
outputs = model(**inputs)
predicted_class = outputs.logits.argmax(-1).item()
print(model.config.id2label[predicted_class])
训练详情
训练数据
数据集包含190,335张自主采集的真实与伪造人脸图像,使用RandomOverSampler进行类别平衡。按60%训练集与40%测试集划分,保持类别分层。
训练流程
预处理
- 图像缩放至224x224分辨率
- 增强策略:随机旋转、锐度调整、归一化
超参数配置
- 训练轮次: 2
- 学习率: 1e-6
- 训练批大小: 32
- 评估批大小: 8
- 权重衰减: 0.02
- 优化器: AdamW(通过Trainer API)
- 混合精度: 未启用
评估
测试数据
采用相同数据集,按60:40分层划分进行评估。
评估指标
评估结果
- 准确率: 99.20%
- 宏观F1分数: 0.9920
环境影响
- 硬件类型: NVIDIA Tesla V100(通过Kaggle Notebook GPU)
- 训练时长: 约2.3小时
- 云服务商: Kaggle
- 计算区域: 未知
- 碳排放: 可通过MLCO2计算器估算
技术规格
模型架构
采用蒸馏版视觉变换器(DeiT)架构,执行图像真伪二分类任务。
计算基础设施
- 硬件配置: 单卡NVIDIA Tesla V100
- 软件栈: PyTorch框架、Hugging Face Transformers库、Datasets库、Accelerate库
引用文献
BibTeX格式:
@misc{virtus2025,
title={Virtus: 基于视觉变换器的深度伪造检测},
author={Agasta},
year={2025},
howpublished={\url{https://huggingface.co/agasta/virtus}},
}
APA格式:
Agasta. (2025). Virtus: 基于视觉变换器的深度伪造检测. Hugging Face. https://huggingface.co/agasta/virtus
联系信息
如有疑问或反馈,可通过GitHub联系,或在模型仓库提交issue,或发送邮件至rupam.golui@proton.me