M

Mengzi Oscar Base

由 Langboat 开发
基于Oscar框架构建的中文多模态预训练模型,采用孟子-Bert基础版初始化,训练数据包含370万组图文对。
下载量 20
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

孟子-奥斯卡模型是一个面向中文的多模态预训练模型,能够处理图像和文本的联合理解任务,适用于图文匹配、视觉问答等场景。

模型特点

多模态预训练
能够同时处理图像和文本信息,实现跨模态理解
中文优化
专门针对中文场景进行优化,采用孟子-Bert作为基础模型
大规模训练数据
使用370万组中文图文对进行训练,覆盖广泛场景

模型能力

图像-文本匹配
视觉问答
跨模态理解
中文多模态任务处理

使用案例

智能客服
基于图像的客服问答
根据用户提供的图片回答相关问题
内容审核
图文一致性审核
检测图片内容与描述文字是否匹配