风格迁移学习笔记

目录

专有词解释:

Gram矩阵:

协方差矩阵:

卷积:

中心化与标准化:

L-BFGS:

图像先验+图像处理正则化:


专有词解释:

Gram矩阵:

​ https://cloud.tencent.com/developer/article/2116091​

协方差矩阵:

https://zhuanlan.zhihu.com/p/464822791

卷积:

https://blog.csdn.net/sinat_29957455/article/details/85558870

中心化与标准化:

https://blog.csdn.net/weixin_31985599/article/details/116072695

L-BFGS:

L-BFGS算法详解(逻辑回归的默认优化算法)

简单分析优化算法L-BFGS、GD和Adam - 知乎

图像先验+图像处理正则化:

直观的理解就是你这做图像task之前你对你要处理的图像的了解,对应的就是bayes里面的先验概率。比如对于自然图像,我们知道一个图像通常可以表示为W*H*C的矩阵,每一个位置在8bit下取值可以0-255,但是并不是随机生成的这样的矩阵就是一个自然图像,还需要满足很多约束,比如局部平滑,patch自相似等。这些约束实际上就是人们对自然图像的经验总结得到的,也就是先验。这些先验在很多图像task中可以作为loss中的正则化项,来迫使处理后的图像不会太离谱。通常的mse是很难保证这一点。另外,现在流行的gan的D loss很多时候也会作为图像处理的先验loss,就是因为它在给定图像集后,能够学习到先验分布,可以作为实际task的先验约束。

什么是正则化?

简单来讲,正则化是抑制样本里面的某些特征,使得模型对于这些特征的重视度下降,举个例子来讲,房价预测,要考虑的特征或者因素有房屋面积,房屋新旧年限,地理位置,房屋是否有独立卫浴,房间是否有阳台等等,将这些因素都考虑进去,可以得到一个模型,但是可能某些因素并不是我们特别关系的,那么就需要使用正则化的手段,来降低模型对于该因素的重视程度,这样可以使模型简化,如果正则因子比较大,那么相对应的因素特征可以直接被模型给忽视掉。相当于从本来的n个特征,变成n-m个特征(n大于m)

任何一个模型,其实都是代表了一种偏好或者数据特征中的一种特定规律,在这种偏好或者规律的指导下,可以得出一种结果,但是如果换了一种偏好,就可能得出另外的一种结果。可以抑制房屋面积特征,也可以抑制地理位置特征,等等,这都取决于建模者的偏好和实际的应用场景。

图像先验图_四月的我的博客-CSDN博客


 

你可能感兴趣的:(毕业毕业!!,笔记)