AIGC从入门到精通

一键起飞 

 安装依赖

wget https://mirrors.tuna.tsinghua.edu.cn/anaconda/miniconda/Miniconda3-py310_23.3.1-0-Linux-x86_64.sh \
&& sh Miniconda3-py310_23.3.1-0-Linux-x86_64.sh -b -p /opt/conda
pip install diffusers transformers scipy ftfy accelerate
import torch
from diffusers import StableDiffusionPipeline
#初始化SD模型,加载预训练权重
pipe = StableDiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5")
#使用GPU加速
pipe.to("cuda")
#如GPU的内存少于10GB,可以加载float16精度的SD模型
#pipe = StableDiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5", revision="fp16", torch_dtype=torch.float16)
#接下来,我们就可以运行pipeline了
prompt = "a beautify girl"
image = pipe(prompt).images[0]
image.save("test.png", "png")

​​​​​​​深入浅出,Stable Diffusion完整核心基础讲解

不同步数和cfg变化图

# 提前安装好python 3.10.9

​git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
cd stable-diffusion-webui
./webui.sh -f --api --listen --enable-insecure-extension-access

AIGC从入门到精通_第1张图片  

喂饭级stable_diffusion_webUI调参权威指南 - 知乎

​​​​​​​Stable Diffusion WebUI 小指南 - X/Y/Z Plot

超细!5000字详解AI绘画图生图干货、技巧,教程、学习分享

AI绘画:不可亵渎的美,海滩婚纱

ControlNet|使用教程 各模型算法说明以及使用解析

Stable Diffusion 模型格式及其相关知识全面指南 - openAI

从耗时看Stable Diffusion WebUI中的采样方式​​​​​​​

训练

【AI绘画】《LORA模型训练超入门级教程》-- 人人都可以当炼金术士 - 哔哩哔哩

stable-diffustion-webui 超网络模型训练经验 - 哔哩哔哩

第一步:制作训练集

搜集素材

首先需要准备合适的素材作为训练数据。你需要:

搜集尽可能高质量的图片(质量非常关键!)
剔除有文字、上色不佳、质量不佳、风格不统一等任何问题的图片。
剔除任何存在不想要的元素的图片,或者可以修一下图
图片的分辨率不要低于训练分辨率(也就是 512x512,长宽都不能低于这个值)
最终的素材集不需要很大,只要有几十到一百来张图就足够训练了。这是整个训练过程中最繁琐和费劲的工作,但不要偷懒哦(否则根本就炼不出好模型)。

预处理

这一步要将素材图片裁成 512x512 分辨率的方形图片用作训练数据。不要使用其他任何分辨率,那样会增加失真(这个我没有验证)

Gradio:轻松实现AI算法可视化部署 - 知乎

waifu-diffusion

stable-diffusion-webui源码分析(1)-Gradio - 知乎

商业价值

AIGC图像生成的原理综述与落地畅想

浅谈一些AIGC赚钱赛道

1. AIGC一定是历史的必然节点。因为它提升了信息生产的效率,让内容的创作变得简单和无门槛
2. 商业机会并不在技术本身,而在于依托于技术基础之上的人、社会、生态和模式。技术起到的是一个将红利自动化、规模化的杠杆作用 

3. AI作画对艺术界产生了巨大冲击,也催生出了AI辅助创作这一新兴领域的发展

工具

如何优雅的下载huggingface-transformers模型

教会你使用AI绘画利器Stable Diffusion ​​​​​​​

你可能感兴趣的:(AIGC)