AI绘图(8)stable diffusion ControlNet用法解析

ControlNet是SD中一个很重要的插件,下面我们就详细介绍这个插件。

1、ControlNet

ControlNet是一种神经网络结构,通过添加额外条件来控制扩散模型。简单的说,ControlNet就是Stable Diffusion生成图片时候的限制条件,例如限制生成的图片中的人物是什么姿势。

1.1 Canny边缘检测示例

工作流程:边缘检测会从输入的图像中提取图像的轮廓,作为提示词之外的额外条件输入,参与到Stable Diffusion图形构建中,控制的图形的生成。

在之前的例子中,整体图像的背景、衣服都是不变的,改变的头发的颜色。详情可以看这篇文章:AI绘图(7)stable diffusion 绘图 局部重绘

1.2 人体姿势检测

Openpose是一种快速人体关键点检测模型,可以提取人体姿势,如手、腿和头部的位置。详情可以看这篇文章:AI绘图(6)stable diffusion 绘图 图生图

工作流程:使用OpenPose从输入图像中提取关键点,并将其保存为包含关键点位置的控制图。然后将其作为额外条件与文本提示一起提供给Stable Diffusion图像是根据这两个条件生成的。

使用Canny边缘检测和OpenPose有什么区别呢?

Canny边缘检测器提取主体和背景的相似边缘。它倾向于翻译场景。在前面的例子中AI绘图(7)stable diffusion 绘图 局部重绘可以看到黑发的小姐姐变成了红色头发的小姐姐,但轮廓和发型都保留了下来。

OpenPose只检测人体关键点,如头部、手臂等位置。图像生成更自由,但遵循原始姿势。

2、ControlNet插件介绍

界面如下图所示:

AI绘图(8)stable diffusion ControlNet用法解析_第1张图片

相关按钮介绍:

启用/Enable:是否启动ControlNet

低显存模式/Low VRAM:显卡显存不够时候开启

Pixel Perfect: ControlNet 将使用你在图像中指定的图像高度和宽度来生成预处理图像

Allow Preview: 预处理图形是需不需要预览

预处理/Preprocessor:假设我们输入的是一张普通的图片,预处理起会进行处理,例如,上传一张图片,OpenPose模型会将图片处理成姿势图。

上传图片,先选择[Allow Preview],在选择[预处理/Preproessor]旁边的爆炸按钮,

预外理的结里就会显示在右侧的图片框中

AI绘图(8)stable diffusion ControlNet用法解析_第2张图片

模型/Model:在我们选择[预处理/Preproessor]之后,接下来我们就要选择[模型/Model],这里有个细节点,我们选择的[预处理/Preproessor]的模型要和[模型/Model] ——对应,

例如;

姿势检测/openpose -- control_v11p_sd15_openpose

线稿检测/canny -- control_v11p_sd15_canny

2.1 ControlNet模型详解

在选择模型的时候,会发现ControlNet的模型非常多,为了方便快速检索到我们需要的功能,我们按照功能的维度做了下面的思维导图。功能的划分参考了 https://github.com/lllyasviel/ControlNet

AI绘图(8)stable diffusion ControlNet用法解析_第3张图片

2.2 设定人体姿势

查看[设定人体姿势],其对应5个设定人体姿势的预处理模块。我们选择预处理模型[openpose],模型选[control_v11p_sd15_openpose],注意预处理模型和模型是一一对应的。

prompt:

best quality,masterpiece,super high resolution,realistic,a girl,wide shot,full body,Long black straight hair, big blue eyes, black jeanwhite tights, adult female, asian,tree,ocean

Negative prompt:

mutated hands and fingers, deformed, bad anatomy, disfigured, poorly drawnface,mutated, extra limb, ugly, poorly drawn hands, missing limb, floatinglimbs, disconnected limbs, malformed hands, out of focus,long neck,long body

AI绘图(8)stable diffusion ControlNet用法解析_第4张图片

AI绘图(8)stable diffusion ControlNet用法解析_第5张图片

2.3 改变风格/配色

想要对当前的图片换一种风格或者更改配色,就使用canny和hed,两者都是边缘检测模型,这两个模型会保留图片的整体构图。hed保留的细节比canny多,具体好坏看个人喜好吧。

预处理模型[线稿检测/canny]和模型[control_v11p _sd15_canny]搭配使用

AI绘图(8)stable diffusion ControlNet用法解析_第6张图片

AI绘图(8)stable diffusion ControlNet用法解析_第7张图片

AI绘图(8)stable diffusion ControlNet用法解析_第8张图片

预处理模型[softedge_hed]和模型[control_v11p_sd15_softedge]搭配使用

AI绘图(8)stable diffusion ControlNet用法解析_第9张图片

AI绘图(8)stable diffusion ControlNet用法解析_第10张图片 AI绘图(8)stable diffusion ControlNet用法解析_第11张图片

可以看到,hed保留的细节比canny多。具体的使用看个人情况。

结语

那么,今天我们就介绍到这里。有兴趣的朋友可以关注我们,我们会持续更新本系列教程。

如果觉得不错,对你有帮助,可以关注我,在后续会发布更多的内容,也可以加入我们的星球,关注公众号,回复”星球“,获取邀请码,即可加入。如果不了解我们的星球是什么,可以看这篇文章,里面有详细介绍。

AI工具赋能,实现高效变现,实现提前下班_牧子川的博客-CSDN博客https://blog.csdn.net/qq_48764574/article/details/132250585https://blog.csdn.net/qq_48764574/article/details/132250585

 我正在「AI高效率【工作、学习】」和朋友们讨论有趣的话题,你⼀起来吧?
https://t.zsxq.com/11KVfN0RChttps://t.zsxq.com/11KVfN0RC

公众号@AI宅玩壹号玩家 @AI宅玩貳号玩家 作者,一个靠AI助力学习与工作的痴迷实践者。全网粉丝2万+,连续不间断更新小白也能玩的AI,让你提前2小时下班。

星球上面有什么:
电子竞赛专栏、深度学习专栏、AI辅助学习专栏、AI工具变现专栏等

适合人群:
在校学生:希望我的经验可以帮助你解决你遇到问题,
开发人员:分享自己的经验,并且可以扩宽自己的道路,学习到更多的内容
希望用副业赚钱:我们有用AI变现的方式,可以帮助你实现用副业赚钱

硬性的标准其实限制不了无限可能的我们,所以啊!少年们加油吧!

你可能感兴趣的:(stable,diffusiopn,stable,diffusion,人工智能,ControlNet)