数据集:
- ILSVRC/imagenet-21k
许可证: 其他
许可证名称: nvclv1
许可证链接: LICENSE
任务类型: 图像分类
库名称: transformers
MambaVision:混合曼巴-Transformer视觉骨干网络
模型概述
我们开发了首个融合曼巴(Mamba)与Transformer优势的计算机视觉混合模型。核心创新包括重构曼巴公式以增强其视觉特征建模效率,并通过系统消融实验验证了视觉Transformer(ViT)与曼巴架构的兼容性。研究表明,在曼巴架构末端引入自注意力模块能显著提升长程空间依赖的建模能力。基于此,我们推出具有层级结构的MambaVision系列模型,满足多样化设计需求。
性能表现
MambaVision-B-21K基于ImageNet-21K预训练并在ImageNet-1K微调。
模型名称 |
Top-1准确率(%) |
Top-5准确率(%) |
参数量(M) |
计算量(G) |
分辨率 |
MambaVision-B-21K |
84.9 |
97.5 |
97.7 |
15.0 |
224x224 |
该系列模型在Top-1准确率与吞吐量方面实现了新的SOTA帕累托前沿。
使用指南
建议通过以下命令安装依赖环境:
代码库: https://github.com/NVlabs/MambaVision
pip install mambavision
每个模型提供图像分类和特征提取两种变体,均可通过单行代码调用。
图像分类示例
以下演示使用COCO验证集图片进行分类预测:
from transformers import AutoModelForImageClassification
from PIL import Image
from timm.data.transforms_factory import create_transform
import requests
model = AutoModelForImageClassification.from_pretrained("nvidia/MambaVision-B-21K", trust_remote_code=True)
model.cuda().eval()
url = 'http://images.cocodataset.org/val2017/000000020247.jpg'
image = Image.open(requests.get(url, stream=True).raw)
input_resolution = (3, 224, 224)
transform = create_transform(input_size=input_resolution,
is_training=False,
mean=model.config.mean,
std=model.config.std,
crop_mode=model.config.crop_mode,
crop_pct=model.config.crop_pct)
inputs = transform(image).unsqueeze(0).cuda()
outputs = model(inputs)
predicted_class_idx = outputs['logits'].argmax(-1).item()
print("预测类别:", model.config.id2label[predicted_class_idx])
输出结果为棕熊(Ursus arctos)
。
特征提取示例
可获取模型四阶段特征图及全局平均池化特征:
from transformers import AutoModel
model = AutoModel.from_pretrained("nvidia/MambaVision-B-21K", trust_remote_code=True)
model.cuda().eval()
inputs = transform(image).unsqueeze(0).cuda()
out_avg_pool, features = model(inputs)
print("池化特征维度:", out_avg_pool.size())
print("特征阶段数:", len(features))
print("第一阶段特征尺寸:", features[0].size())
print("第四阶段特征尺寸:", features[3].size())
许可协议:
NVIDIA受限源代码许可证