2019-01-07-小样本深度学习

小样本数据通常不建议用深度学习的理由:

对于classification model,有如下结论

训练样本N,h为Vc维数,详见https://www.cnblogs.com/HappyAngel/p/3633989.html

如果现在训练模型的算法能使得training error很小,而model complexity penalty又很小,就能保证test error也很小的概率是 1-η。所以要使得模型的generalization比较好,要保证training error和model complexity penalty都能比较小。观察model complexity penalty项,可以看到,h越大,model complexity penalty就会越大。N越大,model complexity penalty则会越小。大致上讲,越复杂的模型有着越大的h(VC dimension),所以为了使得模型有着好的generalization,需要有较大的N来压低model complexity penalty。 这就是为什么深度学习的模型需要大量的数据来训练,否则模型的generalization会比较差,也就是过拟合。

所以在小样本进行深度学习的时候一定要模型的适用性。


图网络代码地址。

https://github.com/deepmind/graph_nets

http://tkipf.github.io/graph-convolutional-networks/

你可能感兴趣的:(2019-01-07-小样本深度学习)