科技 > 人工智能 > 神经网络

Stable Diffusion — ControlNet 超详细讲解

99人参与 2024-08-05 神经网络

stable diffusion — controlnet 超详细讲解

controlnet 最近非常火🔥!controlnet 和 stable diffusion 的结合使 stable diffusion 能够接受指导图像生成过程的条件输入,从而增强了 stable diffusion 的性能。今天为大家深入剖析 controlnet 的工作原理。

img

什么是 controlnet

controlnet 是一个控制预训练图像扩散模型(例如 stable diffusion)的神经网络。它允许输入调节图像,然后使用该调节图像来操控图像生成。

这里的调节图像类型众多,例如涂鸦、边缘图、姿势关键点、深度图、分割图、法线图等,这些输入都可以作为条件输入来指导生成图像的内容。 下面是一些例子:

在这里插入图片描述

图片来源:https://github.com/lllyasviel/controlnet

内部架构

在这里插入图片描述

图1. controlnet 内部架构

stable diffusion (unet) 中的所有参数都被锁定并克隆到 controlnet 端的可训练副本中。然后使用外部条件向量训练该副本。

前馈

在这里插入图片描述

图2. controlnet 前馈部分

解释一下上图公式和符号:

第一步训练

在这里插入图片描述

图3. controlnet 的第一步训练

在第一步训练中,由于零卷积层的权重和偏差被初始化为零,因此前馈过程与没有 controlnet 的过程相同。

经过反向传播后,controlnet 中的零卷积层变为非零并影响输出。

反向传播

在这里插入图片描述

图4. controlnet 反向传播部分

反向传播更新 controlnet 中的可训练副本和零卷积层,使零卷积权重通过学习过程逐渐过渡到优化值。

为什么梯度不会为零?

我们可以假设如果卷积层的权重为零,则梯度为零。 然而,事实并非如此。

假设 y = w x + b y = wx + b y=wx+b 是零卷积层,其中 w w w b b b 分别是权重和偏差, x x x 是输入特征图。以下是每一项的梯度。
y = w x + b ∂ y ∂ w = x ∂ y ∂ x = w ∂ y ∂ b = 1 y = wx+b\\ \frac{\partial y}{\partial w} = x \qquad \frac{\partial y}{\partial x} = w \qquad \frac{\partial y}{\partial b} = 1 y=wx+bwy=xxy=wby=1
如果 w = 0 w=0 w=0 x ≠ 0 x \ne 0 x=0,则
∂ y ∂ w = x ≠ 0 ∂ y ∂ x = w = 0 ∂ y ∂ b = 1 ≠ 0 \frac{\partial y}{\partial w} = x \ne 0 \qquad \frac{\partial y}{\partial x} = w = 0 \qquad \frac{\partial y}{\partial b} = 1 \ne 0 wy=x=0xy=w=0by=1=0
回想一下梯度下降和链式法则:
w ← w − α ∂ l ∂ w w ← w − α ∂ l ∂ ⋅ … ∂ l ∂ w ⏟ ≠ 0 w \larr w-\alpha\frac{\partial \mathcal{l}}{\partial w}\\ w \larr w-\alpha\frac{\partial \mathcal{l}}{\partial \cdot}\dots\frac{\partial \mathcal{l}}{\underbrace{\partial w}_{\ne 0}} wwαwlwwαl=0 wl
一步训练之后, ∂ y ∂ x ≠ 0 \frac{\partial y}{\partial x} \ne 0 xy=0

一开始,当权重值 w = 0 w = 0 w=0 时,输入特征 x x x 通常不为0。结果,虽然 x x x 上的梯度由于零卷积而变为0,但权重和偏置的梯度不受影响。尽管如此,在一个梯度下降步骤之后,权重值 w w w 将更新为非零值(因为 y y y w w w 的偏导数非零)。

与 stable diffusion 相结合

编码器

由于 stable diffusion 的 unet 接受潜在特征 ( 64 × 64 64 \times 64 64×64) 而不是原始图像,因此我们还必须将基于图像的条件转换为 64 × 64 64 \times 64 64×64 的特征空间以匹配卷积大小。
c f = ε ( c i ) c_f = \varepsilon(c_i) cf=ε(ci)
我们可以使用网络 ε \varepsilon ε 将输入条件 c i c_i ci 编码为特征图 c f c_f cf

在这里插入图片描述

图5. controlnet 编码器

上图中,我们使用 z t z_t zt z t − 1 z_{t-1} zt1 作为锁定网络块的输入和输出,以匹配 stable diffusion 上下文中的符号。

整体架构

下图展示了 stable diffusion 中 controlnet 和 unet 在一个去噪步骤中的输入和输出。

在这里插入图片描述

图6. 一步去噪流程

此外,下图从整体上说明了 controlnet 和 stable diffusion 如何在反向扩散过程(采样)中协同工作。

在这里插入图片描述

图7. 整体反向扩散的流程

上图是根据我之前关于 stable diffusion 的文章修改的。如果您还没有阅读过,建议您阅读 《stable diffusion 超详细讲解》《diffusion model 深入剖析》

训练

controlnet 损失函数与 stable diffusion 的损失函数类似,但包含文本条件 c t c_t ct 和潜在条件 c f c_f cf,以提高输出与指定条件的一致性。

stable diffusion 损失函数:
l = e z 0 , t , ϵ [ ∥ ϵ − ϵ θ ( z t , t ) ∥ 2 ] \mathcal{l} = \mathbb{e}_{z_0,t,\epsilon}\big[\vert \epsilon - \epsilon_\theta(z_t,t)\vert^2\big] l=ez0,t,ϵ[ϵϵθ(zt,t)2]
stable diffusion + controlnet 损失函数:
l = e z 0 , t , ϵ , c t , c f [ ∥ ϵ − ϵ θ ( z t , t , c t , c f ) ∥ 2 ] \mathcal{l} = \mathbb{e}_{z_0,t,\epsilon,\boxed{c_t,c_f}}\big[\vert \epsilon - \epsilon_\theta(z_t,t,\boxed{c_t,c_f})\vert^2\big] l=ez0,t,ϵ,ct,cf[ϵϵθ(zt,t,ct,cf)2]
作为训练过程的一部分,我们随机用空字符串替换 50% 的文本提示 c t c_t ct。这有助于 controlnet 更好地理解输入条件图的含义,例如 canny 边缘图或人类涂鸦。

在这里插入图片描述

图8. 训练 controlnet

通过删除提示,编码器被迫更多地依赖控制图中的信息,这提高了其理解其语义内容的能力。

输入条件

controlnet 是一种灵活的工具,允许您使用不同类型的条件输入来加强 stable diffusion。以下是可在 controlnet 中使用的输入类型。

canny 边缘图

img

线条图

img

涂鸦

img

霍夫线

img

语义分割

img

深度图

img

法线图

img

姿势

img

总结

controlnet 是一种神经网络,可以与预训练的扩散模型结合使用,特别是 stable diffusion 模型。

controlnet 允许将条件输入(例如边缘图、分割图和关键点)包含到 stable diffusion 等大型扩散模型中。

结合 controlnet 可以更好地控制图像生成过程,从而能够生成更具体、更符合要求的图像。

(0)
打赏 微信扫一扫 微信扫一扫

您想发表意见!!点此发布评论

推荐阅读

巧用Stable Diffusion,实现不同风格的LOGO设计|实战篇幅,建议收藏!

08-05

Stable Diffusion之最全详解图解

08-05

2023-5 一种基于特征差分卷积神经网络的变化检测方法

08-05

pytorch写一个神经网络训练示例代码

08-05

使用自己的数据利用pytorch搭建全连接神经网络进行回归预测

08-05

【NLP基础知识五】文本分类之神经网络文本分类、多标签分类

08-05

猜你喜欢

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论