batchsize对测试集结果有影响吗

ReLU和BN层简析
Batch Normalization的预测阶段
batch-size调整后,相应的学习律,梯度累加等可能都要调整,有时候也可以调整一些过拟合参数,比如dropout, bn等。
个人理解,在test的时候,batchsize不会对测试结果产生影响,有很多人在test的时候都是不设batchsize的,直接读进去。
至于valid,个人认为,只要用了model.eval(),batchsize也不会影响结果。Bachnormalize虽然会带进去两个参数gamma和beta进行训练,但是train完之后就归一化操作中的mean和var就定死了(用了.eval()之后不再进行训练)

你可能感兴趣的:(深度学习)