2018-06-13

上午发现没有train下去,输出的feature map全是一样的值,但是取出weight也没出现全相同的情况,后来发现是learning rate的原因,太大了,但是后面不也decay了吗?玄学。调小后似乎有学到东西,真的学的太慢了吧!lr调大loss又出现nan……真无语,但是我记得,pytorch固定0.005也可以收敛?数据处理也是一样的啊,那为什么昨天晚上train的,今天早上去完全就崩了呢?明天还得好好debug一下!

下午把scale和crop pad写了,在2000张图片上都可以正确crop和pad,把mpii开始train起来了,但是train的比较慢,估计明天回来也就8个epochs,但是至少能学到东西吧!明天要是没学到东西还得在2000张的数据上overfitting一下,是在不行还得用resize版本的数据feed方式

下午坐在位置上比较难受,一天坐累了吧,可以站起来和同学说会话啊!或者出去走走,总比待在位置上没效率好

也在实验室的服务器上跑吧,这周至少跑出个结果来吧!先把数据集下到实验室电脑上

你可能感兴趣的:(2018-06-13)