mxnet的upsampling,,,大坑

最后找到可用的是:

self.upsample2 = nn.Conv2DTranspose(channels=256, kernel_size=4, strides=2, padding=1, weight_initializer=mx.init.Bilinear(), use_bias=False, groups=256)
self.upsample2.collect_params().setattr("lr_mult", 0.0)

这里的第二行是说明让我们不更新这一层的参数,因为这个我们想做一个uppooling的不更新参数的一个工作,这样也是没有办法,带来的后果是多占用了一点显存,其他方法也都试过了,包括https://github.com/apache/incubator-mxnet/issues/4134 和https://www.zhihu.com/question/63890195 中的一些方法。尤其mx.nd.contrib.BilinearResize2D函数是个坑 还可以带有权重参数,我也是有些服气的,但是效果还是太难整明白,最后还是用了最开始提出的方法,毕竟快速实现是第一要务嘛。

你可能感兴趣的:(深度学习)