DragGAN:用崭新的方式进行图像处理

该项目的论文被SIGGRAPH 2023 收录,论文以 StyleGAN2 架构为基础,实现了 “Drag” 关键点就能轻松 P 图的效果。

https://github.com/XingangPan/DragGAN

https://vcai.mpi-inf.mpg.de/projects/DragGAN/

目录

  • 原图1
    • 测试一
    • 测试二
    • 测试三
  • 原图2
    • 测试一
    • 测试二
  • 原图3
    • 测试
  • 参考文献

在官方 Demo 中,作者轻触鼠标,一拖一拽,让狗狗微笑、让猫咪"Wink"、让倒影拉长、让太阳升起…完美贴合现实世界的物理结构和物理逻辑。DragGAN 源代码正式放出,目前在 GitHub 上已有超过 20,000 颗星标。

根据论文中的介绍,DragGAN 是一种用于直观基于点的图像编辑的交互方法。利用预先训练的 GAN 来合成不仅精确跟随用户输入的图像,而且停留在真实图像的流形上。与之前的许多方法相比,是一个不依赖于特定领域的建模或辅助网络的通用框架。

这是基于两种新方法实现的:一是对隐编码的优化,这些隐编码增量地将多个抓取点移动到它们的目标位置;二是通过点跟踪过程来准确地跟踪抓取点的轨迹。这两个组件利用 GAN 中间特征图的判别质量来进行图像变形,实现交互性能。目前已经证明,此方法在基于 GAN 的操作中优于最先进的方法,并为使用生成先验的强大图像编辑开辟了新的方向。而对于未来的工作,作者计划将基于点的编辑扩展到 3D 生成模型。

DragGAN:用崭新的方式进行图像处理_第1张图片

原图1

测试一

测试二

测试三

原图2

DragGAN:用崭新的方式进行图像处理_第2张图片

测试一

DragGAN:用崭新的方式进行图像处理_第3张图片

测试二

DragGAN:用崭新的方式进行图像处理_第4张图片

原图3

DragGAN:用崭新的方式进行图像处理_第5张图片

测试

DragGAN:用崭新的方式进行图像处理_第6张图片
DragGAN:用崭新的方式进行图像处理_第7张图片

参考文献

https://huggingface.co/spaces/DragGan/DragGan

https://openxlab.org.cn/apps/detail/XingangPan/DragGAN

https://zhuanlan.zhihu.com/p/639963515

你可能感兴趣的:(segmentation,/,vision,gan)