2017.10.25代码调试记录

3层网络,隐藏层全连接,顶部Softmax

3层全链接网络加入了学习率衰减,效果依然不好。

max_lr = 0.003

min_lr = 0.0001

decay_speed = 2000.0

learning_rate = min_lr + (max_lr - min_lr)*math.exp(-i/decay_speed)

2017.10.25代码调试记录_第1张图片
Train Accuracy:  1.0,  Test Accuracy:  0.665


2017.10.25代码调试记录_第2张图片
严重过拟合?

加入dropout,training pkeep=0.75 , testing pkeep=1.0.出来的是啥呀!


2017.10.25代码调试记录_第3张图片
Train Accuracy:  1.0, Test Accuracy:  0.665


2017.10.25代码调试记录_第4张图片

pkeep=0.55 有变化了


2017.10.25代码调试记录_第5张图片
Train Accuracy:  1.0, Test Accuracy:  0.755


2017.10.25代码调试记录_第6张图片
过拟合依然严重

减少网络节点数目。

K = 500 → 400 #hindden1的神经元

L = 100 → 50 #隐藏层2的神经元

pkeep:0.55

测试准确率稍微提高了一点,但训练准确度下降。而且,损失曲线仍不对,过拟合。

2017.10.25代码调试记录_第7张图片
Train Accuracy:  0.9975, Test Accuracy:  0.77


2017.10.25代码调试记录_第8张图片

2层全连接网络:更差

去掉一隐藏层,K = 400

pkeep:0.75


2017.10.25代码调试记录_第9张图片
Train Accuracy:  1.0, Test Accuracy:  0.62


2017.10.25代码调试记录_第10张图片

4层全连接网络

K = 400 #hindden1的神经元

L = 50 #隐藏层2的神经元

M = 10 #隐藏层3

max_lr = 0.003

min_lr = 0.0001

pkeep:0.75


2017.10.25代码调试记录_第11张图片
Train Accuracy:  0.98625, Test Accuracy:  0.705


2017.10.25代码调试记录_第12张图片

版权所有,转载请注明出处。

你可能感兴趣的:(2017.10.25代码调试记录)