2018-11-23毕设讨论

讨论了论文<基于小波的特征增强在卷积神经网络中应用>中的几个实现问题,和进一步的方向。
论文主要介绍了两种方法来预处理图像:小波分解以后去除低频分量再重构、分解后对高频分量进行极大模边缘提取。
一开始,我想当然的以为只是把预处理完的图片丢进去,就行了,然而得到的识别率比不用甚至还要低,因为原本的信息损失了或是损坏了,降低了识别率也是意料之中,所以就觉得这个不可理喻,甚至怀疑论文的真实性,但是早上老师在开会的时候,自己又仔细看了一下论文,发现预处理层的操作有一个细节,那就是原本的图像从处理完以后变成了,也就是说,多了一层东西,所以那一层就是我们特征增强所得到的东西,这样一来,就不会丢掉原来的信息,然后由于多了一层,也就是在告诉机器,边缘信息比较重要,值得占1/4的空间来放,所以在识别的时候,边缘信息所占的权重就增加了,识别率有可能上升也就说得通了。在和老师讨论之前,抓紧时间改了程序,跑了几次,发现一开始识别率上升得会快一点点,但是还需大量的实验来作平均,排除偶然误差的影响。
老师建议使用cifar-10来进行更好的区别识别率,的确自己感受了一下fashion_mnist其实也没想象中那么好,只是整体的识别率下降了,但是信息量照样只有,所以区分度不大,但是cifar-10里面有背景,有很多噪声,无关的东西,信息达到下一步需要进一步弄通彩色图像处理。
然后是下一步的方向,除了复现验证之外(其实这只是很小的一部分东西,要从他的思路出发,也要从他的思路跳出),更重要的是更退一步,从全局来分析,神经网络这个黑盒子的输入和输出之间的关系,例如输入图形的顺序,预处理的方式(测试集或训练集,加或不加噪声、别的对高频信息处理方式、以及别的预处理方式)。

你可能感兴趣的:(2018-11-23毕设讨论)