探索【Stable-Diffusion WEBUI】的插件:ControlNet 1.1

文章目录

  • (零)前言
  • (一)ControlNet
  • (二)ControlNet(v1.1)
    • (2.1)模型
    • (2.2)新版界面
    • (2.3)预处理器
  • (三)偷懒

(零)前言

本篇主要提到ControlNet新版本的使用,和旧版本的变化,并偷懒参考了别人很不错的文章。
更多不断丰富的内容参考:《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》

(一)ControlNet

WEBUI的插件里,ControlNet是少数几个不需要翻译的插件,因为翻译了也没意思:控制网络

它的作用是,用模型进一步(精确)控制生成的图片内容(主要是人像,也包括建筑风景等),
可用多种算法检测已有图片的边缘,深度,身体手部姿态。或则来自涂鸦,生成新的图片。

需要精确控制图片输出时使用,参考:ControlNet|使用教程
比如(很多控制,这里只放2个例子,简单看看吧):

  • OpenPose 姿态检测
    更加和谐的图片

  • Canny 边缘检测
    在这里插入图片描述

(二)ControlNet(v1.1)

目前ControlNet升级了版本变化很大,主要是多了很多预处理器,并且模型也都更新了。
我正准备写几句,突然发现openai.wiki 里更新了相关的文章,分3篇详细介绍了新版各种新模型和使用,那我就偷懒不用具体写了,参考:ControlNet|V1.1版使用教程【上】

主要变化如下:

(2.1)模型

旧的模型放在:xxxx\SDWEBUI\models\ControlNet\目录中,8个模型文件,每个大约5.5GB左右。
新的模型放在:xxxx\SDWEBUI\extensions\sd-webui-controlnet\models\目录中,我这14个,每个1.5GB左右。

PS:旧模型配新预处理器也可以用?不过建议大家还是从openai.wiki 的文章中去下载整合的包。
因为不仅要模型,预处理器也需要在线下载一些文件,有时网速很难完成,简直是拼人品。

(2.2)新版界面

版本1.1是一个很大的升级,而且目前ControlNet继续疯狂的更新中。但基本用法和以前一样。
就是从已有的图片中,提取某种模型的特征信息,用于生成新的图片。
界面和以前稍微有区别,例子如下:

(2.3)预处理器

具体仍然看openai.wiki 里面很详细。
预处理器一大堆,这里截图展示不完,下面还有一些(翻译后更加占用垂直空间-_-)。
我粗略翻译了一下:Stable-Diffusion WEBUI 简体中文语言包(2023.05.01更新)

所以我这里列表看上去大概如下:
探索【Stable-Diffusion WEBUI】的插件:ControlNet 1.1_第1张图片

(三)偷懒

就这样了,因为别人openai.wiki 的文章真的写的很清楚很详实了,希望详细了解就去看看呗。

你可能感兴趣的:(人工智能/机器学习,Windows,Python,stable,diffusion,人工智能,AI绘图,ControlNet,WEBUI)