【创新实训】风格迁移功能探索与实现(一) 风格迁移发展史

完成了图像多标记功能后,积累了一定的tensorflow编程经验和深度学习的知识。创新项目实训本来计划完成物体检测的功能的,但是可以用的数据集,比如Pascal VOC数据集,在Object Detection方面只有20个类别,COCO数据集类别稍多,也只有91类,远远不能满足实际的图像处理的需要,即对于大多数图像,都无法返回任何结果;为了使系统对用户上传的图像具有更好的通用性,调整项目功能为风格迁移。风格迁移可以将用户输入的任意一张图片,进行特定风格的转换,生成一张新风格原内容的图片。

https://www.leiphone.com/news/201705/ro8EB2entk3vXybM.html《图像风格迁移 (Neural Style) 简史》

本文讲了基于深度学习的风格迁移以前的常用方法,以及具有划时代意义的基于深度学习的方法的出现:基于神经网络的图像风格迁移在 2015 年由 Gatys et al. 在两篇论文中提出。

其实这个方向火起来是从2015年Gatys发表的一篇文章 A Neural Algorithm of Artistic Style, 从最初的Neural Style,到Ulyanov的Texture Networks: Feed-forward Synthesis of Textures and Stylized Images以及李飞飞老师的Perceptual Losses for Real-Time Style Transfer and Super-Resolution。 一般来说主要就是这3篇,后面两篇是差不多的,都是将原来的求解全局最优解问题转换成用前向网络逼近最优解,原版的方法每次要将一幅内容图进行风格转换,就要进行不断的迭代,而后两篇的方法是先将其进行训练,训练得到前向生成网络,以后再来一张内容图,直接输入到生成网络中,即可得到具有预先训练的风格的内容图。

https://blog.csdn.net/hungryof/article/details/53981959  这篇博客也有相关工作的介绍

https://blog.csdn.net/XGL1569348/article/details/80295794《Style Transfer 相关论文工作》




你可能感兴趣的:(项目创新实训)