license: apache-2.0
tags:
datasets:
视觉感知器IO(卷积处理版)
该感知器IO模型基于ImageNet数据集(1400万张图像,1000个类别)在224x224分辨率下进行预训练。它由Jaegle等人在论文《Perceiver IO: A General Architecture for Structured Inputs & Outputs》中提出,并首次发布于此代码库。
免责声明:发布Perceiver IO的团队未为此模型编写模型卡片,本文档由Hugging Face团队撰写。
模型描述
感知器IO是一种可应用于任何模态(文本、图像、音频、视频等)的Transformer编码器模型。其核心思想是在一组规模适中的潜在向量(如256或512个)上应用自注意力机制,仅利用输入数据与潜在向量进行交叉注意力计算。这使得自注意力机制的时间和内存需求不依赖于输入数据规模。
解码时,作者采用所谓的"解码查询"机制,可灵活地将潜在向量的最终隐藏状态解码为任意尺寸和语义的输出。对于图像分类任务,输出是一个包含logits的张量,形状为(batch_size, num_labels)。
感知器IO架构示意图
由于自注意力机制的计算需求与输入尺寸无关,研究者可以直接在原始像素值上训练模型,而无需像ViT那样将图像分块处理。本模型在使用像素值与潜在向量进行交叉注意力计算前,先通过简单的二维卷积+最大池化网络对像素值进行预处理。
通过预训练,模型学习到图像的内在表示,这些特征可用于下游任务:例如若有一个带标签的图像数据集,可通过替换分类解码器来训练标准分类器。
使用场景与限制
您可直接使用该原始模型进行图像分类。访问模型中心可查找其他针对特定任务微调的版本。
使用方法
以下是PyTorch调用示例:
from transformers import PerceiverFeatureExtractor, PerceiverForImageClassificationConvProcessing
import requests
from PIL import Image
feature_extractor = PerceiverFeatureExtractor.from_pretrained("deepmind/vision-perceiver-conv")
model = PerceiverForImageClassificationConvProcessing.from_pretrained("deepmind/vision-perceiver-conv")
url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)
inputs = feature_extractor(image, return_tensors="pt").pixel_values
outputs = model(inputs)
logits = outputs.logits
print("预测类别:", model.config.id2label[logits.argmax(-1).item()])
>>> 应输出:预测类别: 虎斑猫
训练数据
本模型在ImageNet上预训练,该数据集包含1400万图像和1000个类别。
训练流程
预处理
图像经中心裁剪并调整为224x224分辨率,RGB通道进行归一化。注意预训练时使用了数据增强策略,详见论文附录H。
预训练
超参数细节参见论文附录H。
评估结果
该模型在ImageNet-1k上达到82.1%的Top-1准确率。
BibTeX引用信息
@article{DBLP:journals/corr/abs-2107-14795,
author = {Andrew Jaegle and
Sebastian Borgeaud and
Jean{-}Baptiste Alayrac and
Carl Doersch and
Catalin Ionescu and
David Ding and
Skanda Koppula and
Daniel Zoran and
Andrew Brock and
Evan Shelhamer and
Olivier J. H{\'{e}}naff and
Matthew M. Botvinick and
Andrew Zisserman and
Oriol Vinyals and
Jo{\~{a}}o Carreira},
title = {Perceiver {IO:} {A} General Architecture for Structured Inputs {\&}
Outputs},
journal = {CoRR},
volume = {abs/2107.14795},
year = {2021},
url = {https://arxiv.org/abs/2107.14795},
eprinttype = {arXiv},
eprint = {2107.14795},
timestamp = {Tue, 03 Aug 2021 14:53:34 +0200},
biburl = {https://dblp.org/rec/journals/corr/abs-2107-14795.bib},
bibsource = {dblp computer science bibliography, https://dblp.org}
}