base_model: vidore/ColSmolVLM-base
library_name: peft
tags:
- vidore-experimental
- vidore
pipeline_tag: visual-document-retrieval
ColSmolVLM-v0.1:基于SmolVLM-Instruct与ColBERT策略的视觉检索模型
此版本采用128批量大小训练3个周期
ColSmolVLM是一种基于视觉语言模型(VLM)的新型架构与训练策略的模型,能高效通过视觉特征索引文档。作为SmolVLM的扩展,它能生成文本和图像的ColBERT风格多向量表示。该模型在论文ColPali:基于视觉语言模型的高效文档检索中提出,并首发于此代码库。
此版本为未训练的基准版本,用于确保投影层的确定性初始化。

版本特性
本版本使用colpali-engine==0.3.5
训练(代码库主分支)。
数据与论文描述的ColPali数据相同。
模型训练
数据集
我们的127,460组查询-页面训练数据集包含:开放学术数据集训练集(63%),以及由网络爬取PDF文档页面构成、并通过VLM(Claude-3 Sonnet)生成伪问题增强的合成数据集(37%)。训练集全为英语设计,以研究对非英语语言的零样本泛化能力。我们明确验证ViDoRe与训练集中无重复多页PDF文档,防止评估污染。验证集取2%样本用于超参数调优。
注:多语言数据存在于语言模型的预训练语料库中,极可能也存在于多模态训练中。
参数
除非特别说明,我们以bfloat16
格式训练模型,在语言模型的Transformer层及随机初始化的最终投影层上使用alpha=32
和r=32
的低秩适配器(LoRA),并采用paged_adamw_8bit
优化器。我们在4 GPU设置下进行数据并行训练,学习率5e-4带2.5%预热步数的线性衰减,批量大小为32。
使用方式
确保安装colpali-engine
源码或版本高于0.3.5(当前代码库主分支)。transformers
版本需>4.46.2。
pip install git+https://github.com/illuin-tech/colpali
import torch
from PIL import Image
from colpali_engine.models import ColIdefics3, ColIdefics3Processor
model = ColIdefics3.from_pretrained(
"vidore/colsmolvlm-v0.1",
torch_dtype=torch.bfloat16,
device_map="cuda:0",
attn_implementation="flash_attention_2"
).eval()
processor = ColIdefics3Processor.from_pretrained("vidore/colsmolvlm-v0.1")
images = [
Image.new("RGB", (32, 32), color="white"),
Image.new("RGB", (16, 16), color="black"),
]
queries = [
"注意力机制真的万能吗?",
"萨尔瓦多的香蕉种植量是多少?",
]
batch_images = processor.process_images(images).to(model.device)
batch_queries = processor.process_queries(queries).to(model.device)
with torch.no_grad():
image_embeddings = model(**batch_images)
query_embeddings = model(**batch_queries)
scores = processor.score_multi_vector(query_embeddings, image_embeddings)
局限性
- 专注领域:模型主要针对PDF类文档和高资源语言,对其他文档类型或低资源语言的泛化能力可能有限。
- 支持框架:模型依赖ColBERT后期交互机制衍生的多向量检索,可能需要工程改造以适应缺乏原生多向量支持的通用向量检索框架。
许可
ColQwen2的视觉语言主干模型(Qwen2-VL)采用apache2.0
许可,模型适配器采用MIT许可。
联系方式
- Manuel Faysse: manuel.faysse@illuin.tech
- Hugues Sibille: hugues.sibille@illuin.tech
- Tony Wu: tony.wu@illuin.tech
引用
若在研究中使用本组织的任何数据集或模型,请按以下格式引用原始论文:
@misc{faysse2024colpaliefficientdocumentretrieval,
title={ColPali: Efficient Document Retrieval with Vision Language Models},
author={Manuel Faysse and Hugues Sibille and Tony Wu and Bilel Omrani and Gautier Viaud and Céline Hudelot and Pierre Colombo},
year={2024},
eprint={2407.01449},
archivePrefix={arXiv},
primaryClass={cs.IR},
url={https://arxiv.org/abs/2407.01449},
}