图像风格迁移【老版】

深度学习目前为止最有用的东西是图像处理,我们可以用它在极早期判断癌症, 也可以用它在茫茫人海里寻找犯人,但是要我说你能写一个小程序取悦女朋友, 你就不一定能信, 这一招叫艺术风格变换,就是你点击一下,就可以把你女朋友的大头照换成一个毕加索的后现代艺术作品(当然是取代还是找打要看你的艺术品位)。

图像风格迁移【老版】_第1张图片

入行需谨慎

艺术风格迁移是一个古老而现代的主题 , 多少艺术家为了描摹他人作品而竞折腰。 在出现了IT之后, 它也成为adobe之类的公司竞相追求的宠儿,却始终进展缓慢。

而深度学习, 却可以轻轻点击自动完成这个任务, 铁哥在此给大家拆拆招 , 看如何玩转神经风格迁移。

我们说,神经风格迁移就是把一张图片的内容和另一个图片的风格合成的一个方法,比如说你给出一个猫的图片和一个梵高的自画像,就可以生成一只梵高的猫。

图像风格迁移【老版】_第2张图片

在深度学习之前,机器视觉的工程师就尝试用各类神奇的滤镜提取图像的纹理信息,抽取取来的纹理图在经过某个变换放回到原图片里,就得到了一个新的风格的图片。 

深度学习所作的事情,是把这个东西给自动化。我们利用卷积网络的深层结构提取的信息,来替代之前的各种滤镜。 

首先,卷积网络不仅能够做猫狗识别这一类分类任务,在其中间层里,其实包含了丰富的有用信息,而这些信息,正是我们做风格迁移的基础。如果你可视化CNN的各层级结构,你会发现里面的每一层神经元的激活态都对应了一种特定的信息,越是底层的,就越接近画面的纹理信息,如同物品的材质。 越是上层的,就越接近实际内容(能说出来是个什么东西的那些信息),如同物品的种类。

研究人员提出的一套可视化CNN的方法,把深层的内容通过反卷积映射回图象,好比你关心什么,就给你投影出来(Visualizing CNN 2014 )。

图像风格迁移【老版】_第3张图片

底层神经元关心画面的材质

图像风格迁移【老版】_第4张图片

深层神经元关心物品的种类

那么好了,风格迁移不就是这么简单吗,把一张图片的底层信息和另一张图片的上层信息合成一起不久可以了吗? 用适当的数学方法,我们可以在卷积网络的中间层里左手提取图象内容有关的信息,右手提取图象风格有关的信息。

用中间层的信息恢复的内容,可以看到不同层里里都可以找到风格和内容有关的信息, 但是层次越深, 具体的信息就越少, 而“实体” 的概念轮廓犹在

 

看起来是的,我们可以通过一个已经训练好的CNN, 把一张风格图片和内容图片的信息都抽取出来, 然后拼在一起!

为什么这里要用一个已经训练好的CNN呢? 一个用分类任务训练好的CNN,通常已经具有了对世界大多数图像提取信息的能力, 因为图像传递信息的底层机制是想通的。 我们把这个网络连接的权衡直接共享过来, 图片一导进来, 网络就可以生成直接可用的特征! 这正是迁移学习的原理。

这里我们导入一个已经训练好的VGG19网络,一种非常流行的CNN图像分类框架

所有深度学习和机器学习,都是预先设定好一个损失函数,然后在进行梯度回传,这里也不例外,我们可以通过设定合理的损失函数,来解决问题。这个损失函数,正是一种能够测量生成图片与风格图片,内容图片距离的函数。 

来,兄弟们,看我们如何设定这样一个函数。既然我们的深度卷积网络可以做到测量与内容有关的特征, 那么我们只需要在这个层次上找一下特征向量的距离就好了。 

图像风格迁移【老版】_第5张图片

图像无非是高维空间的一个点,通过神经网络变换再经过特定降维方法处理后我们可以给它转化成二维曲面上的一个点, 我们会发现,在这个世界里, 狗在狗的国度 , 猫在猫的国度。 而我们只需要度量不同图像的空间距离,就测量了内容的相似度。

图像风格迁移【老版】_第6张图片

哇, 这不就是定义距离的公式吗!

然后呢,如何搞定风格,风格通常是一个艺术家眼中主关的有点虚无缥缈的概念,也就是我们通常说的感觉, 比如梵高或者莫奈的画,你没有经过艺术熏陶也可以得来。

而在深度学习的角度下, 这种感觉却发现与不同神经元活动的相关性有关! 也就是说,风格是深度网络神经元活动的某种统计特性! 悄悄的,我们把艺术和数学对接上了。 统计果然是上帝的语言啊有木有!

这里我们借助一个叫gram矩阵的数学工具,它通过测量同一层卷积输出不同通道之间的相关性(计算不同通道间的相关性,组成一个矩阵)给出一个对风格的度量。然后,我们在测量一下风格之间的距离不就行了吗?

 

图像风格迁移【老版】_第7张图片

把CNN某一层对应不同特征的神经元像摊煎饼一样摊开, 然后计算之间的相关性

图像风格迁移【老版】_第8张图片

得到一个矩阵,矩阵的每个元素对应不同特征间的相关性

 

图像风格迁移【老版】_第9张图片

图像风格迁移【老版】_第10张图片

这个损失函数就是gram 矩阵之间的距离!

注意,衡量风格之间的距离, 我们是把不同网络层级间的gram矩阵的距离都计算一下加在一起,这样可以把不同层次度量的东西综合起来 。

好了,到这一步, 大功告成, 把两个损失函数叠加在一起就好了。

 

目标函数的设计学问可大了,改变a和b的比例就能造成很多区别,大家注意风格图片的比例越高,图像就越纹理化。

图像风格迁移【老版】_第11张图片

风格的权重变大的时候, 那图像就变成了意大利瓷砖!

 

 

然后我们可以做什么呢? 梯度下降!但注意,这里我们优化的目标不是网络权重而是图像本身,这样我们就大功告成了!

 

当然这里说的只是风格迁移的一种, 这种方法的优点是通俗易懂, 而缺点是速度很慢。 还有一个方法,是借用生成网络,直接给搞出来, 这个方法更快速, 更加适合工业封装。 我来给大家展示一下这个方法的实质。

图像风格迁移【老版】_第12张图片

像不像GAN的结构!

哈哈,这样我们就可以完成一幅艺术作品交给家里领导了,但是不要忘记哦, 这件事给我们的启示绝不止这一个呀。 它给我们启示的是,我们深层神经编码的机制里,深度学习的踪影, 你对风格的认知,其实是和内容的认知一样, 是可以量化的,而不像某些艺术家所言, 完全主观,与数学无关。 不仅可以量化,而且这个信息是可以独立被提取的, 这种信息不是存在于某个神经元之上, 而是分布式的存在于多级神经网络的不同尺度之间, 通过每一层神经元的统计规律表达。

虽然我们尚不知道这些猜想是否正确, 他们我们人类深奥的视觉处理机制提供了一种聪明的理解方法。

 

附: 代码, 看看用pytorch做出来是多么简洁:

计算内容损失函数

图像风格迁移【老版】_第13张图片

计算风格损失函数

图像风格迁移【老版】_第14张图片

设定模型主体!

图像风格迁移【老版】_第15张图片

训练过程!

 

你可能感兴趣的:(图像处理,深度学习,生成模型)