Stable Diffusion 2.0来了!网友:太快了,V1还没整透彻,V2就来了

来源:机器之心

Stability AI 官方宣布,那个爆红 AI 圈的 Stable Diffusion 来到了 2.0 版本(SD 2.0)!上线短短几个小时,点赞量已经很可观了。

Stable Diffusion 2.0来了!网友:太快了,V1还没整透彻,V2就来了_第1张图片

项目地址:https://github.com/Stability-AI/stablediffusion

可以说,这波更新速度够快的,就像网友说的,我从未见过任何技术发展如此之快。V1 还没整透彻,V2 就来了。

a00aaa9197c2b4539e03e4bde73bd45a.png

Stable Diffusion 2.0来了!网友:太快了,V1还没整透彻,V2就来了_第2张图片

V1亮相之初,在Github 排行榜,Stable Diffusion 为所有软件中攀升至 10K star 最快的其中之一,在不到两个月的时间内飙升至 33K star。按照这个速度,2.0 版本很快就会赶上。

Stable Diffusion 2.0来了!网友:太快了,V1还没整透彻,V2就来了_第3张图片

Stability AI 的产品副总裁兴奋的表示:Stable Diffusion 2.0 是有史以来发布的最强大的开源项目之一。这是迈向创造力、表达能力和沟通民主化的又一大步。

Stable Diffusion 2.0来了!网友:太快了,V1还没整透彻,V2就来了_第4张图片

还有网友表示:「离完美不远了。可能是 V5 或 V6 版本」。

Stable Diffusion 2.0来了!网友:太快了,V1还没整透彻,V2就来了_第5张图片

「新版本是改变游戏规则的更新。」

Stable Diffusion 2.0来了!网友:太快了,V1还没整透彻,V2就来了_第6张图片

与最初的 V1 版本相比,Stable Diffusion 2.0 提供了许多重大改进和特性,具体表现在:

Stable Diffusion 2.0 版本包含一个具有鲁棒性的文本 - 图像模型,在全新的文本编码器 (OpenCLIP) 上训练而成,与早期的 V1 版本相比,文本 - 图像模型大大提高了图像生成质量,可以生成默认分辨率为 512x512 像素和 768x768 像素的图像。

此外,文本 - 图像模型是在 LAION-5B 数据集上训练的,然后使用 NSFW filter 过滤掉一些不可描述的内容。

使用 Stable Diffusion 2.0 生成的图像示例,图像分辨率为 768x768

Stable Diffusion 2.0 还包括一个 Upscaler Diffusion 模型,该模型将生成图像的分辨率提高了 4 倍。具体效果如何呢?例如下图展示的是 Upscaler 将低分辨率生成的图像 (128x128) 升级(upscaling)为更高分辨率的图像(512x512)。现在的图像已经够清晰了,然后在结合上述提到的文本 - 图像模型, 比如将 512x512 像素的图像提高 4 倍,Stable Diffusion 2.0 现在可以将图像升级为分辨率为 2048x2048 甚至更高的图像。

Stable Diffusion 2.0来了!网友:太快了,V1还没整透彻,V2就来了_第7张图片

左:128x128 低分辨率图像。右:由 Upscaler 生成的 512x512 分辨率图像

此外,Stable Diffusion 2.0 更新还包括 Depth2img(depth-guided stable diffusion)模型,它扩展了 V1 版本中图像 - 图像的特性,为创意应用提供了全新的可能性。Depth2img 用来推理输入图像的深度,然后使用文本和深度信息生成新图像。

Stable Diffusion 2.0来了!网友:太快了,V1还没整透彻,V2就来了_第8张图片

左边为输入图像,右边为新生成的图像,相同的动作,面貌各异。该新模型可用于图像 - 图像结构的保持和形状的合成。

Depth2img 提供了不同创新性应用,虽然生成的图像与原始图像有很大的不同,但仍然保持了图像的连贯性和深度:

Stable Diffusion 2.0 生成的深度 - 图像保持一致性。

最后,Stable Diffusion 2.0 还引入了一个新的 text-guided 修复模型,用户可以非常智能、快递的切换图像部分内容,如下图中豹子的嘴巴和鼻子是不变的,其他部分可以随意改变。

研究者表示,他们正在努力优化模型以在单个 GPU 上运行,让尽可能多的人可以使用。

参考链接:https://stability.ai/blog/stable-diffusion-v2-release

推荐阅读

  • 西电IEEE Fellow团队出品!最新《Transformer视觉表征学习全面综述》

  • 润了!大龄码农从北京到荷兰的躺平生活(文末有福利哟!)

  • 如何做好科研?这份《科研阅读、写作与报告》PPT,手把手教你做科研

  • 一位博士在华为的22年

  • 奖金675万!3位科学家,斩获“中国诺贝尔奖”!

  • 又一名视觉大牛从大厂离开!阿里达摩院 XR 实验室负责人谭平离职

  • 最新 2022「深度学习视觉注意力 」研究概述,包括50种注意力机制和方法!

  • 【重磅】斯坦福李飞飞《注意力与Transformer》总结,84页ppt开放下载!

  • 2021李宏毅老师最新40节机器学习课程!附课件+视频资料

欢迎大家加入DLer-计算机视觉技术交流群!

大家好,群里会第一时间发布计算机视觉方向的前沿论文解读和交流分享,主要方向有:图像分类、Transformer、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等内容。

进群请备注:研究方向+学校/公司+昵称(如图像分类+上交+小明)

Stable Diffusion 2.0来了!网友:太快了,V1还没整透彻,V2就来了_第9张图片

 长按识别,邀请您进群!

你可能感兴趣的:(stable,diffusion,人工智能,计算机视觉,深度学习,python)