Deep Neural Networks Are Easily Fooled: High Confidence Predictions for Unrecognizable Images full paper
Anh Nguyen, Jason Yosinski, Jeff Clune
这篇paper的idea我很喜欢,不久的将来基于这篇paper还会产生一些工作。
这篇文章针对的问题是这样的。虽然现在DNN已经在主流分类数据集上已经展示了比传统方法更好的分类性能,但是论文的方法揭示了,我们可以轻而易举的产生一些欺骗DNN的图片:人类看不清是什么,但DNN以99.99%的confidence分类成某一个类别。
在DNN近年来一路唱红的时代,一些没有节操的媒体(当然,还有一些没节操的researcher)说可以去beat human vision。每当看到这个都只能说,呵呵。
好吧,扯多了,说一些细节。论文用了两种方法,一种采用遗传算法,还有一种采用梯度上升。这两种方法都产生出了一张有规律或无规律的图形,但DNN轻易分错的实例。近年来,也有一些paper来探讨类似的问题。具体细节看论文吧,discussion非常值得一看。