卷积神经网络 傅里叶变换 Gabor变换

卷积神经网络的底层是傅里叶变换,傅里叶变换的底层是希尔伯特空间坐标变换

卷积神经网络:特征(“模式”/卷积核) 特征值(体现原图含有此特征的强弱程度)

对于卷积神经网络,我们希望提取局部特征(与周围像素点的位置关系),从而相同特征可以不考虑位置,可以进行复用

切入点:“时域卷积,频域相乘”,从而使得卷积与傅里叶变换可以联系起来

傅里叶变换:频域里每一个w点(“模式”),都是对时域里全局情况的一个浓缩,对应的特征值就是F(w),在频域图像里,某种程度上已经可以做到和位置无关了(只是波形相位上的不同,振幅是不变的)

卷积神经网络 傅里叶变换 Gabor变换_第1张图片

但我们希望提取的是局部特征,而傅里叶变换考虑的是全局的

对傅里叶变换更深刻的理解:增加维度,到希尔伯特空间中

卷积神经网络 傅里叶变换 Gabor变换_第2张图片

卷积神经网络 傅里叶变换 Gabor变换_第3张图片

 傅里叶变换其实就是在希尔伯特空间做的一个坐标系变化,只不过傅里叶变换选的这一组坐标系(或者说是基)很特别,是一组正交基。由此,傅里叶变换就和希尔伯特空间里的坐标系变换就联系起来了,为后面对傅里叶变换的修改打好了基础,傅里叶变换之所以考虑的是全局,是因为基对应时域是正余弦为全局的

加窗:有窗口范围的基,使全局变为局部。即图像在不同位置出现相同的特征,那它的特征值应该是相同的

分段函数不是处处可微的,所以换成高斯分布的函数,即Gabor变换

卷积神经网络 傅里叶变换 Gabor变换_第4张图片 

g函数对傅里叶变换增加了很多可能性, g函数不同,就是不同的变换。例如,g函数是指数函数,则是拉普拉斯变换(使正弦余弦的曲线不断衰减);如果窗口大小不固定可以根据频率动态变换,那就是小波变换;本质都是在希尔伯特空间里选择了一组不同的基,对原来的函数进行变换。

最后,Gabor变换对应于卷积神经网络的操作

参考

你可能感兴趣的:(深度学习,神经网络,cnn)