Denoise auto-encoder的一个理解

这几天反复的看denoise auto-encoder的解释,尤其是geometric interpretation。作者写道,本来的数据假定是在一个低纬度的流行结构上,加了噪音之后,这些噪音点就距离这个流行结构要有点远,或者不在这个流行结构上了,那么学习的过程就会去学习在这个本来的流行结构。


个人认为:如果就算不加噪音点,你去学习的还是这个流行结构呢,并且由于噪音点的减少,单纯的对于这个样本来说,你学习的还更准确呢?为啥要加噪音呢?

加了噪音后对这个样本来说,学习到的流行结构过程中,多少回收到噪音数据的影响的,那么对于这个学习样本来说,其实学习到的效果肯定不如没有加噪音的好。那为啥还要加噪音?个人认为 只是单纯的为了增加网络的泛化能力吧? 但是作者并没有这么直接的提出来 是这么个目的。真是奇怪,不知道谁能给点解释?

你可能感兴趣的:(Denoise auto-encoder的一个理解)