A

Animatediff Sparsectrl Scribble

由 guoyww 开发
AnimateDiff是一种将静态Stable Diffusion模型转换为视频生成模型的方法,通过插入运动模块实现连贯的视频生成。
下载量 247
发布时间 : 7/18/2024
模型介绍
内容详情
替代品

模型简介

该模型通过在冻结的文本生成图像模型中插入运动模块层并在视频片段上进行训练,实现了从静态图像生成到视频生成的转换。

模型特点

运动模块插入
在Stable Diffusion UNet的ResNet和Attention块后插入运动模块,实现帧间连贯运动
稀疏控制网络
支持SparseControlNet,通过稀疏控制帧实现更精确的视频生成控制
兼容现有模型
可与现有Stable Diffusion文本生成图像模型结合使用,无需完全重新训练

模型能力

文本生成视频
基于涂鸦控制的视频生成
帧间运动连贯性保持

使用案例

创意内容生成
赛博朋克城市动画
根据文本提示和涂鸦控制生成连贯的赛博朋克风格城市动画
生成高质量、帧间连贯的动画效果
概念可视化
产品概念动画
通过简单涂鸦和文本描述快速生成产品概念动画
快速可视化设计概念