BAGEL是一个开源的、拥有70亿活跃参数的多模态基础模型,训练于大规模交错多模态数据,在理解和生成任务上表现优异。
下载量 4,736
发布时间 : 5/19/2025
模型简介
BAGEL是一个统一的多模态基础模型,能够同时处理视觉理解和生成任务,在标准多模态理解排行榜上超越当前顶级开源视觉语言模型,并在文本到图像生成质量上与专业生成器相媲美。
模型特点
统一的多模态能力
同时具备多模态理解和生成能力,在视觉理解和图像生成任务上均表现优异
混合专家架构
采用混合专家Transformer架构,最大化模型从丰富多样的多模态信息中学习的能力
涌现特性
随着训练进展,模型展现出分阶段涌现的能力,从基础理解生成到复杂智能编辑
先进编辑能力
在自由形式的视觉操作、多视角合成和世界导航等任务上展现出超越传统图像编辑模型的能力
模型能力
多模态理解
文本到图像生成
图像编辑
自由形式视觉操作
多视角合成
世界导航
使用案例
内容创作
文本到图像生成
根据文本描述生成高质量图像
在GenEval基准测试中总体得分0.88,优于SD3-Medium等专业生成器
图像编辑
智能图像编辑
根据指令对图像进行复杂编辑
在GEdit-Bench-EN和IntelligentBench等基准测试中表现优异
多模态理解
视觉问答
回答关于图像内容的复杂问题
在MMBench、MMMU等标准多模态理解排行榜上超越当前顶级开源视觉语言模型
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文