license: openrail++
tags:
Stable Diffusion v2 模型卡片
本文档重点介绍与Stable Diffusion v2模型相关的信息,该模型可在此处获取。
本stable-diffusion-2
模型基于stable-diffusion-2-base(512-base-ema.ckpt
)继续训练,使用v目标函数在同一数据集上训练了15万步。随后在768x768
分辨率图像上继续训练了14万步。

模型详情
-
开发团队: Robin Rombach, Patrick Esser
-
模型类型: 基于扩散的文本生成图像模型
-
支持语言: 英语
-
许可协议: CreativeML Open RAIL++-M许可证
-
模型描述: 本模型可根据文本提示生成和修改图像,是基于潜在扩散模型架构,使用固定预训练文本编码器(OpenCLIP-ViT/H)。
-
更多资源: GitHub仓库
-
引用格式:
@InProceedings{Rombach_2022_CVPR,
author = {Rombach, Robin and Blattmann, Andreas and Lorenz, Dominik and Esser, Patrick and Ommer, Bj\"orn},
title = {High-Resolution Image Synthesis With Latent Diffusion Models},
booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
month = {June},
year = {2022},
pages = {10684-10695}
}
使用示例
通过🤗的Diffusers库简单高效地运行Stable Diffusion 2:
pip install diffusers transformers accelerate scipy safetensors
运行管道(若不更换调度器则默认使用DDIM,本例中我们切换为EulerDiscreteScheduler):
from diffusers import StableDiffusionPipeline, EulerDiscreteScheduler
model_id = "stabilityai/stable-diffusion-2"
scheduler = EulerDiscreteScheduler.from_pretrained(model_id, subfolder="scheduler")
pipe = StableDiffusionPipeline.from_pretrained(model_id, scheduler=scheduler, torch_dtype=torch.float16)
pipe = pipe.to("cuda")
prompt = "火星上宇航员骑马的照片"
image = pipe(prompt).images[0]
image.save("astronaut_rides_horse.png")
注意事项:
- 虽非必需依赖,但强烈建议安装xformers以实现高效注意力机制(提升性能)
- 若GPU显存有限,在转移到
cuda
后请添加pipe.enable_attention_slicing()
以减少显存占用(会降低速度)
用途
直接用途
本模型仅限研究用途,可能的研究方向包括:
- 安全部署可能生成有害内容的模型
- 探究生成模型的局限性和偏见
- 艺术创作及设计应用
- 教育或创意工具开发
- 生成模型研究
以下为禁止用途说明。
滥用、恶意使用及超范围使用
注:本节内容最初源自DALLE-MINI模型卡片,适用于Stable Diffusion v1,同样适用于v2版本。
禁止使用本模型故意创建或传播制造敌意或排斥性环境的内容。包括但不限于:
- 生成令人不安、痛苦或冒犯性的图像
- 传播历史或现存刻板印象
- 未经同意的个人模仿
- 非合意性内容
- 虚假和误导信息
- 极端暴力与血腥内容
- 违反版权协议的素材分享
- 违反许可条款的改编内容
局限性与偏见
局限性
- 无法实现完美照片级真实感
- 无法生成清晰文本
- 复杂组合任务表现欠佳(如"蓝色球体上的红色立方体")
- 人脸和人体生成可能不准确
- 主要基于英语训练,其他语言效果较差
- 自编码部分存在信息损失
- 训练数据来自LAION-5B子集,包含成人暴力内容(已通过NSFW检测器过滤)
偏见
虽然图像生成能力令人印象深刻,但可能强化社会偏见。主要训练数据LAION-2B(en)局限于英语描述,其他语言文化代表性不足。默认输出往往反映西方白人文化,非英语提示生成质量显著较差。Stable Diffusion v2放大了这类偏见,使用时需特别谨慎。
训练过程
训练数据
开发者使用以下数据集:
- LAION-5B及其子集(经NSFW检测器过滤,p_unsafe=0.1阈值)。详见LAION-5B的NeurIPS 2022论文。
训练方法
Stable Diffusion v2是结合自编码器的潜在扩散模型:
- 图像通过编码器转为潜在表示(下采样因子8)
- 文本提示通过OpenCLIP-ViT/H编码器处理
- 文本编码输出通过交叉注意力注入UNet主干
- 采用噪声预测重建损失和v目标函数(https://arxiv.org/abs/2202.00512)
现有检查点包括:
-
512-base-ema.ckpt
:256x256分辨率55万步 + 512x512分辨率85万步
-
768-v-ema.ckpt
:基于前者追加768x768分辨率14万步训练
-
512-depth-ema.ckpt
:整合MiDaS深度预测作为额外条件
-
512-inpainting-ema.ckpt
:采用LAMA掩码策略进行修复训练
-
x4-upscaling-ema.ckpt
:125万步训练的文本引导潜在超分模型
-
硬件配置: 32节点×8张A100 GPU
-
优化器: AdamW
-
梯度累积: 1
-
批量大小: 2048
-
学习率: 10000步预热至0.0001后保持恒定
评估结果
不同分类器自由引导尺度(1.5-8.0)和50步DDIM采样的对比评估:

基于COCO2017验证集的10000个随机提示,512x512分辨率评估(未针对FID分数优化)。
环境影响
Stable Diffusion v1碳排放估算
根据机器学习碳排放计算器估算:
- 硬件类型: A100 PCIe 40GB
- 使用时长: 200000小时
- 云服务商: AWS
- 计算区域: 美国东部
- 碳排放量: 15000千克CO2当量
引用文献
@InProceedings{Rombach_2022_CVPR,
author = {Rombach, Robin and Blattmann, Andreas and Lorenz, Dominik and Esser, Patrick and Ommer, Bj\"orn},
title = {High-Resolution Image Synthesis With Latent Diffusion Models},
booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
month = {June},
year = {2022},
pages = {10684-10695}
}
本模型卡片由Robin Rombach、Patrick Esser和David Ha编写,基于Stable Diffusion v1和DALL-E Mini模型卡片改编。