数据集:
- ILSVRC/imagenet-21k
许可证: 其他
许可证名称: nvclv1
许可证链接: LICENSE
任务标签: 图像分类
库名称: transformers
MambaVision:混合Mamba-Transformer视觉骨干网络
代码仓库: https://github.com/NVlabs/MambaVision
模型概述
我们开发了首个结合Mamba与Transformer优势的计算机视觉混合模型。核心创新包括重构Mamba公式以增强其视觉特征建模效率,并通过系统消融实验验证了视觉Transformer(ViT)与Mamba融合的可行性。研究表明,在Mamba架构最后几层引入自注意力模块能显著提升长程空间依赖的建模能力。基于此,我们推出了具有层级结构的MambaVision系列模型,满足多样化设计需求。
模型性能
MambaVision-L3-256-21K在ImageNet-21K数据集预训练后,于256×256分辨率下在ImageNet-1K完成微调。
模型名称 |
Top-1准确率(%) |
Top-5准确率(%) |
参数量(M) |
计算量(G) |
分辨率 |
MambaVision-L3-256-21K |
87.3 |
98.3 |
739.6 |
122.3 |
256×256 |
该系列模型在Top-1准确率与吞吐量方面实现了新的SOTA帕累托前沿。
使用指南
建议通过以下命令安装依赖环境:
pip install mambavision
每个模型均提供图像分类和特征提取两种模式,一行代码即可导入。
图像分类示例
以下示例展示如何使用MambaVision进行图像分类。输入图片来自COCO验证集:
分类代码片段:
from transformers import AutoModelForImageClassification
from PIL import Image
from timm.data.transforms_factory import create_transform
import requests
model = AutoModelForImageClassification.from_pretrained("nvidia/MambaVision-L3-256-21K", trust_remote_code=True)
model.cuda().eval()
url = 'http://images.cocodataset.org/val2017/000000020247.jpg'
image = Image.open(requests.get(url, stream=True).raw)
input_resolution = (3, 256, 256)
transform = create_transform(input_size=input_resolution,
is_training=False,
mean=model.config.mean,
std=model.config.std,
crop_mode=model.config.crop_mode,
crop_pct=model.config.crop_pct)
inputs = transform(image).unsqueeze(0).cuda()
outputs = model(inputs)
print("预测类别:", model.config.id2label[outputs['logits'].argmax(-1).item()])
输出结果为:棕熊(brown bear, bruin, Ursus arctos)
特征提取示例
MambaVision可作为通用特征提取器,支持获取各阶段特征图(共4阶段)及最终展平的平均池化特征:
from transformers import AutoModel
model = AutoModel.from_pretrained("nvidia/MambaVision-L3-256-21K", trust_remote_code=True)
model.cuda().eval()
inputs = transform(image).unsqueeze(0).cuda()
out_avg_pool, features = model(inputs)
print("平均池化特征尺寸:", out_avg_pool.size())
print("特征阶段数:", len(features))
print("第一阶段特征尺寸:", features[0].size())
print("第四阶段特征尺寸:", features[3].size())
许可证
NVIDIA受限源代码许可证