文档视觉问答
Mlcd Vit Bigg Patch14 448
MIT
MLCD-ViT-bigG是一款采用二维旋转位置编码(RoPE2D)增强的先进视觉Transformer模型,在文档理解和视觉问答任务中表现卓越。
文字识别
M
DeepGlint-AI
1,517
3
Pixtral 12b Quantized.w8a8
Apache-2.0
基于mgoin/pixtral-12b的INT8量化版本,支持视觉-文本多模态任务,优化了推理效率
图像生成文本
Transformers
英语
P
RedHatAI
309
1
Qwen2.5 VL 3B Instruct Quantized.w8a8
Apache-2.0
Qwen/Qwen2.5-VL-3B-Instruct的量化版本,支持视觉-文本输入和文本输出,权重量化为INT8,激活量化为INT8。
图像生成文本
Transformers
英语
Q
RedHatAI
274
1
Vietable Donut Docvqa Demo
MIT
基于Donut模型针对越南语文档问答(表格数据)进行微调的版本
问答系统
Transformers
其他
V
YuukiAsuna
16
1
Florence2 EntityExtraction
MIT
Florence-2 DocVQA 是基于 Microsoft Florence-2-large 模型微调的文档视觉问答模型,专门用于处理文档图像中的问答任务。
图像生成文本
Transformers
英语
F
jena-shreyas
23
0
Udop Large 512 300k
MIT
UDOP是一个统一处理视觉、文本和布局的通用文档处理模型,基于T5架构,适用于文档AI任务。
图像生成文本
Transformers
U
microsoft
264
32
Udop Large 512
MIT
UDOP是一个统一视觉、文本与布局的通用文档处理模型,基于T5架构,适用于文档图像分类、解析和视觉问答等任务。
图像生成文本
Transformers
U
microsoft
193
5
CIVQA Impira QA EasyOCR
MIT
该模型是Impira模型的微调版本,专门用于处理捷克语发票的视觉问答任务。
文本生成图像
Transformers
C
Sharka
74
0
Testdocumentquestionanswering
基于LayoutLMv2架构的文档视觉问答模型,针对DocVQA任务进行微调
图像生成文本
Transformers
T
Dhineshk
16
0
Layoutlmv3 Finetuned Docvqa
基于LayoutLMv3-base微调的文档问答模型,适用于文档视觉问答任务
图像生成文本
Transformers
L
am-infoweb
22
3
Donut Base Finetuned Docvqa
基于Donut架构的文档问答模型,能够从图像中提取文本信息并回答问题
图像生成文本
Transformers
D
Xenova
114
16
Layoutlmv2 Base Uncased Finetuned Docvqa
基于LayoutLMv2架构的文档视觉问答模型,专为文档理解任务微调
文本生成图像
Transformers
L
madiltalay
14
0
Layoutlmv2 Base Uncased Finetuned Docvqa
基于LayoutLMv2架构的文档视觉问答模型,专门针对文档理解任务进行微调
图像生成文本
Transformers
L
hugginglaoda
16
0
Pix2struct Docvqa Base
Apache-2.0
Pix2Struct是一个图像编码器-文本解码器模型,通过图像-文本对训练,支持多种任务,包括图像描述生成和视觉问答。
图像生成文本
Transformers
支持多种语言
P
google
8,601
37
Pix2struct Docvqa Large
Apache-2.0
Pix2Struct是基于图像编码器-文本解码器架构的视觉语言模型,专门针对文档视觉问答任务进行了微调
图像生成文本
Transformers
支持多种语言
P
google
984
31
Layoutlmv2 Base Uncased Finetuned Docvqa V2
该模型是基于microsoft/layoutlmv2-base-uncased在文档视觉问答任务上微调的版本,专注于处理文档图像中的文本和布局信息。
图像生成文本
Transformers
L
MariaK
54
3
Layoutlm Invoices
基于LayoutLM架构微调的文档问答模型,专门处理发票等结构化文档
文本生成图像
Transformers
英语
L
faisalraza
100
7
Donut Base Finetuned Docvqa
MIT
Donut是一种无需OCR的文档理解Transformer模型,基于DocVQA数据集微调,能够直接从图像中提取和理解文本信息。
图像生成文本
Transformers
D
naver-clova-ix
167.80k
231
Layoutlmv2 Large Uncased Finetuned Vi Infovqa
基于microsoft/layoutlmv2-large-uncased微调的文档视觉问答模型,适用于越南语信息提取任务
文本生成图像
Transformers
L
tiennvcs
16
0
Layoutlmv2 Large Uncased Finetuned Infovqa
基于LayoutLMv2架构的文档理解模型,针对InfoVQA任务进行微调
问答系统
Transformers
L
tiennvcs
16
2