对于目前网上的利用Keras对各种网络进行fine-tuning以及迁移学习的代码大多都是直接从keras的官网上直接抄过来的(其中知乎上的一个例子也是如此,,我一开始的代码也是参考的那个fine-tuning代码,但是最后结果非常差。)对于这一个问题,网络上的解决办法非常的少,在这里我也做一下简单的总结,以备日后的学习以及研究。
在国内博客上来讲,有两篇博客提及了这个问题,但是都只是浅尝辄止的提到了解决办法,参见下面两篇的博文:
1、https://blog.csdn.net/aojue1109/article/details/88181927
2、https://blog.csdn.net/zjn295771349/article/details/86355874
真正对问题进行彻底分析的还是外网的这一篇博客
3、http://blog.datumbox.com/the-batch-normalization-layer-of-keras-is-broken/
以及在StackOverflow上的一个讨论
4、StackOverflow上的回答
以及在Github上对问题有详尽的分析:#9214,#9965