神经网络训练与预测时结果不一致的一种原因

为了防止过拟合,我设置了提前终止early stop。发现预测时的train accuracy与训练时打印出的max train accuracy并不一致。经断点调试,发现是early stop代码段的问题

 if test_accuracy > self.max_test_acc and train_accuracy > self.max_train_acc - 0.04:
     self.max_test_acc = test_accuracy
     self.max_acc_epoch = epoch
     self.train_sync_acc = train_accuracy
     if train_accuracy > self.max_train_acc:
         self.max_train_acc = train_accuracy
     self.best_net = self.net.state_dict()  # 这里有问题
     print('*' * 50)
     print('epoch', epoch + 1, 'current loss', loss.cpu().data, 'train acc:', train_accuracy,
           'current max test acc:', self.max_test_acc)
     print('*' * 50)
 if epoch > self.max_acc_epoch + early_stop:
     break

问题就出在标记处,我本来是想每获得一个最大的test accuracy就保存当前net。但是这步赋值后,self.best_netself.net.state_dict()地址完全一致,两者同时变化,因而这步赋值就没有任何意义了。
修改方法:使用深拷贝

from copy import deepcopy

...
	self.best_net = deepcopy(self.net.state_dict())
...

改过了之后就正常了~
(用的是PyTorch框架)

你可能感兴趣的:(PyTorch,神经网络,机器学习,深度学习)