Stable Diffusion web UI 文档

Stable Diffusion web UI

一个基于Gradio库的web UI,用于Stable Diffusion。

特征

带有图像的详细功能展示:

  • 原始txt2img和img2img模式
  • 一键安装并运行脚本(但你仍然必须安装python和git)
  • 外画
  • 修复
  • 彩色素描
  • 提示矩阵
  • 稳定扩散高档
  • Attention,指定模型应该更多关注的文本部分
    • 穿着“((燕尾服))”的男人 - 会更加关注燕尾服
    • 穿着“(tuxedo:1.21)”的男人 - 替代语法
    • 选择文本并按“Ctrl+Up”或“Ctrl+Down”(如果您使用的是 MacOS,则按“Command+Up”或“Command+Down”)以自动调整对所选文本的关注(代码由匿名用户贡献) )
  • Loopback,多次运行img2img处理
  • X/Y/Z 图,一种绘制具有不同参数的 3 维图像图的方法
  • 文本倒置
    • 拥有任意数量的嵌入并使用您喜欢的任何名称
    • 使用每个标记具有不同数量向量的多个嵌入
    • 使用半精度浮点数
    • 在 8GB 上训练嵌入(还报告 6GB 工作)
  • 附加选项卡包含:
    • GFPGAN,修复人脸的神经网络
    • CodeFormer,面部恢复工具,作为 GFPGAN 的替代品
    • RealESRGAN,神经网络升级器
    • ESRGAN,具有许多第三方模型的神经网络升级器
    • SwinIR 和 Swin2SR(参见此处),神经网络升级器
    • LDSR,潜在扩散超分辨率升级
  • 调整宽高比选项
  • 采样方法选择
    • 调整采样器 eta 值(噪声乘数)
    • 更高级的噪音设置选项
  • 随时中断处理
  • 4GB 显卡支持(也有 2GB 工作报告)
  • 批次的正确种子
  • 实时提示令牌长度验证
  • 生成参数
    - 用于生成图像的参数与该图像一起保存
    - 对于 PNG,在 PNG 块中;对于 JPEG,在 EXIF 中
    - 可以将图像拖到PNG信息选项卡以恢复生成参数并自动将其复制到UI中
    - 可以在设置中禁用
    - 将图像/文本参数拖放到提示框中
  • 读取生成参数按钮,将提示框中的参数加载到UI
  • 设置页面
  • 从 UI 运行任意 python 代码(必须使用 --allow-code 运行才能启用)
  • 大多数 UI 元素的鼠标悬停提示
  • 可以通过文本配置更改 UI 元素的默认值/混合/最大/步长值
  • 平铺支持,用于创建可以像纹理一样平铺的图像的复选框
  • 进度条和实时图像生成预览
    • 可以使用单独的神经网络来生成几乎没有 VRAM 或计算要求的预览
  • 否定提示,一个额外的文本字段,允许您列出您不想在生成的图像中看到的内容
  • 样式,一种保存部分提示并稍后通过下拉菜单轻松应用它们的方法
  • 变体,一种生成相同图像但有微小差异的方法
  • 种子调整大小,一种生成相同图像但分辨率略有不同的方法
  • CLIP询问器,一个尝试从图像中猜测提示的按钮
  • 提示编辑,一种中代更改提示的方法,比如开始做西瓜,中途切换到动漫女孩
  • 批处理,使用img2img处理一组文件
  • Img2img 替代,交叉注意力控制的反向欧拉方法
  • Highres Fix,一个方便的选项,只需单击一下即可生成高分辨率图片,而不会出现通常的扭曲
  • 即时重新加载检查点
  • 检查点合并,该选项卡允许您将最多 3 个检查点合并为一个
  • 自定义脚本 具有来自社区的许多扩展
  • Composable-Diffusion,一种同时使用多个提示的方法
    - 使用大写“AND”分隔提示
    - 还支持提示的权重:“猫:1.2 AND 狗 AND 企鹅:2.2”
  • 提示无代币限制(原创稳定扩散最多可使用 75 个代币)
  • DeepDanbooru 集成,为动漫提示创建 danbooru 风格标签
  • xformers,精选卡的主要速度提升:(将 --xformers 添加到命令行参数)
  • 通过扩展:历史记录选项卡:在 UI 中方便地查看、直接和删除图像
  • 生成永久选项
  • 训练选项卡
    - 超网络和嵌入选项
    - 预处理图像:使用 BLIP 或 deepdanbooru(针对动漫)进行裁剪、镜像、自动标记
  • 剪辑跳过
  • 超网络
  • Loras(与 Hypernetworks 相同但更漂亮)
  • 一个单独的 UI,您可以通过预览选择要添加到提示中的嵌入、超网络或 Loras
  • 可以选择从设置屏幕加载不同的 VAE
  • 进度条中的预计完成时间
  • API
  • 支持 RunwayML 的专用修复模型
  • 通过扩展:Aesthetic Gradients,一种通过使用剪辑图像嵌入生成具有特定美感的图像的方法(实现https: //github.com/vicgalle/stable-diffusion-aesthetic-gradients)
  • 稳定扩散 2.0 支持 - 请参阅 [wiki](https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#stable- 扩散-20) 说明
  • Alt-Diffusion 支持 - 请参阅wiki 获取说明
  • 现在没有任何不好的字母了!
  • 以安全张量格式加载检查点
  • 放宽分辨率限制:生成图像的尺寸必须是 8 的倍数而不是 64
  • 现在有执照了!
  • 从设置屏幕重新排序用户界面中的元素

安装与运行

确保满足所需的依赖项,并按照以下可用说明进行操作:

  • NVidia(推荐)
  • AMD GPU。
  • Intel CPU、Intel GPU(集成和独立)(外部 wiki 页面)

或者,使用在线服务(例如 Google Colab):

  • 在线服务列表

使用发行包在带有 NVidia-GPU 的 Windows 10/11 上安装

  1. 从 v1.0.0-pre 下载 sd.webui.zip 并解压其内容。
  2. 运行“update.bat”。
    3.运行“run.bat”。

有关更多详细信息,请参阅 Install-and-Run-on-NVidia-GPUs

Windows 上的自动安装

1.安装Python 3.10.6(较新版本的Python不支持torch),勾选“Add Python to PATH”。
2.安装git。
3. 下载 stable-diffusion-webui 存储库,例如通过运行 git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
4. 以普通非管理员用户身份从 Windows 资源管理器运行“webui-user.bat”。

Linux 上的自动安装

1.安装依赖项:

# 基于 Debian:
sudo apt install wget git python3 python3-venv libgl1 libglib2.0-0
# 基于红帽:
须藤 dnf 安装 wget git python3
# 基于拱门:
sudo pacman -S wget git python3
  1. 导航到您想要安装 WebUI 的目录并执行以下命令:
wget -q https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh

3.运行webui.sh
4. 检查“webui-user.sh”选项。

在 Apple Silicon 上安装

在此处查找说明。

贡献

以下是如何向此存储库添加代码:贡献

文档

该文档已从本自述文件移至项目的 wiki。

为了让 Google 和其他搜索引擎抓取 wiki,这里有一个(不适用于人类)[可抓取 wiki](https://github-wiki-see.page/m/AUTOMATIC1111/stable-diffusion- 网络用户界面/维基)。

学分

借用代码的许可证可以在“设置 -> 许可证”屏幕以及“html/licenses.html”文件中找到。

  • 稳定扩散 - https://github.com/CompVis/stable-diffusion,https://github.com/CompVis/taming-transformers
  • k-扩散 - https://github.com/crowsonkb/k-diffusion.git
  • GFPGAN - https://github.com/TencentARC/GFPGAN.git
  • CodeFormer - https://github.com/sc Zhou/CodeFormer
  • ESRGAN - https://github.com/xinntao/ESRGAN
  • SwinIR - https://github.com/JingyunLiang/SwinIR
  • Swin2SR - https://github.com/mv-lab/swin2sr
  • LDSR - https://github.com/Hafiidz/latent-diffusion
  • MiDaS - https://github.com/isl-org/MiDaS
  • 优化想法 - https://github.com/basujindal/stable-diffusion
  • 交叉注意力层优化 - Doggettx、超网络或 Loras 添加到您的提示中
  • 可以选择从设置屏幕加载不同的 VAE
  • 进度条中的预计完成时间
  • API
  • 支持 RunwayML 的专用修复模型
  • 通过扩展:Aesthetic Gradients,一种通过使用剪辑图像嵌入生成具有特定美感的图像的方法(实现https: //github.com/vicgalle/stable-diffusion-aesthetic-gradients)
  • 稳定扩散 2.0 支持 - 请参阅 [wiki](https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#stable- 扩散-20) 说明
  • Alt-Diffusion 支持 - 请参阅wiki 获取说明
  • 现在没有任何不好的字母了!
  • 以安全张量格式加载检查点
  • 放宽分辨率限制:生成图像的尺寸必须是 8 的倍数而不是 64
  • 现在有执照了!
  • 从设置屏幕重新排序用户界面中的元素

安装与运行

确保满足所需的依赖项,并按照以下可用说明进行操作:

  • NVidia(推荐)
  • AMD GPU。
  • Intel CPU、Intel GPU(集成和独立)(外部 wiki 页面)

或者,使用在线服务(例如 Google Colab):

  • 在线服务列表

使用发行包在带有 NVidia-GPU 的 Windows 10/11 上安装

  1. 从 v1.0.0-pre 下载 sd.webui.zip 并解压其内容。
  2. 运行“update.bat”。
    3.运行“run.bat”。

有关更多详细信息,请参阅 Install-and-Run-on-NVidia-GPUs

Windows 上的自动安装

1.安装Python 3.10.6(较新版本的Python不支持torch),勾选“Add Python to PATH”。
2.安装git。
3. 下载 stable-diffusion-webui 存储库,例如通过运行 git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
4. 以普通非管理员用户身份从 Windows 资源管理器运行“webui-user.bat”。

Linux 上的自动安装

1.安装依赖项:

# 基于 Debian:
sudo apt install wget git python3 python3-venv libgl1 libglib2.0-0
# 基于红帽:
须藤 dnf 安装 wget git python3
# 基于拱门:
sudo pacman -S wget git python3
  1. 导航到您想要安装 WebUI 的目录并执行以下命令:
wget -q https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh

3.运行webui.sh
4. 检查“webui-user.sh”选项。

在 Apple Silicon 上安装

在此处查找说明。

贡献

以下是如何向此存储库添加代码:贡献

文档

该文档已从本自述文件移至项目的 wiki。

为了让 Google 和其他搜索引擎抓取 wiki,这里有一个(不适用于人类)[可抓取 wiki](https://github-wiki-see.page/m/AUTOMATIC1111/stable-diffusion- 网络用户界面/维基)。

学分

借用代码的许可证可以在“设置 -> 许可证”屏幕以及“html/licenses.html”文件中找到。

  • 稳定扩散 - https://github.com/CompVis/stable-diffusion,https://github.com/CompVis/taming-transformers
  • k-扩散 - https://github.com/crowsonkb/k-diffusion.git
  • GFPGAN - https://github.com/TencentARC/GFPGAN.git
  • CodeFormer - https://github.com/sc Zhou/CodeFormer
  • ESRGAN - https://github.com/xinntao/ESRGAN
  • SwinIR - https://github.com/JingyunLiang/SwinIR
  • Swin2SR - https://github.com/mv-lab/swin2sr
  • LDSR - https://github.com/Hafiidz/latent-diffusion
  • MiDaS - https://github.com/isl-org/MiDaS
  • 优化想法 - https://github.com/basujindal/stable-diffusion
  • 交叉注意力层优化 - Doggettx - https://github.com/Doggettx/stable-diffusion,即时编辑的原创想法。
  • 交叉注意力层优化 - InvokeAI, lstein - https://github.com/invoke-ai/InvokeAI(最初为http://github.com/lstein/stable-diffusion)
  • 次二次交叉注意力层优化 - Alex Birch (https://github.com/Birch-san/diffusers/pull/1)、Amin Rezaei (https://github.com/AminRezaei0x443/memory-efficient-attention)
  • 文本倒置 - Rinon Gal - https://github.com/rinongal/textual_inversion (我们没有使用他的代码,但我们正在使用他的想法)。
  • SD 高档创意 - https://github.com/jquesnelle/txt2imghd
  • 用于绘制 mk2 的噪声生成 - https://github.com/parlance-zz/g-diffuser-bot
  • CLIP 询问器想法并借用一些代码 - https://github.com/pharmapsychotic/clip-interrogator
  • 可组合扩散的想法 - https://github.com/energy-based-model/Compositional-Visual-Generation-with-Composable-Diffusion-Models-PyTorch
  • xformers - https://github.com/facebookresearch/xformers
  • DeepDanbooru - 动漫扩散器询问器 https://github.com/KichangKim/DeepDanbooru
  • 从 float16 UNet 中以 float32 精度进行采样 - marunine 的想法,Birch-san 的示例 Diffusers 实现 (https://github.com/Birch-san/diffusers-play/tree/92feee6)
  • 指导 pix2pix - Tim Brooks(明星)、Aleksander Holynski(明星)、Alexei A. Efros(无明星) - https://github.com/timothybrooks/instruct-pix2pix
  • 安全建议 - RyotaK
  • UniPC 采样器 - 赵文亮 - https://github.com/wl-zhao/UniPC
  • TAESD - Ollin Boer Bohan - https://github.com/madebyollin/taesd
  • LyCORIS - 红白蓝叶
  • 重新启动采样 - lambertae - https://github.com/Newbeeer/diffusion_restart_sampling
  • 初始 Gradio 脚本 - 由匿名用户发布在 4chan 上。 谢谢匿名用户。

你可能感兴趣的:(AIGC,stable,diffusion,前端,ui)