torchvision.transforms.Compose三——再看一眼

接上面Compose两篇:第一个,第二个

不管如何,我依旧是你们最爱的小明哥。

我又看了个Compose对象,再看看,确定他的输入shape是什么,这个还是很重要的,这里有用。

依旧以我哥为例:

torchvision.transforms.Compose三——再看一眼_第1张图片

>>> img.size
(575, 685)
>>> ximg[0].size
(224, 224)

试了另外一个,也是224

>>> img.size
(828, 828)

>>> ximg[0].size
(224, 224)

因此基本可以确定input_shape就是224了,

但我想知道整个模型的输入是什么样子

dense_sample=False, twice_sample=True

这个有点难以把握,不知所言。这个是否影响数据的输入,是否对数据进行了某个改变,且看到源码。

transform=torchvision.transforms.Compose([
                           cropping,
                           Stack(roll=False),
                           ToTorchFormatTensor(div=True),
                           GroupNormalize(net.input_mean, net.input_std),
                       ])

这个的最终结果是得到多个图片??

对于一个img来说结果是

>>> ximg.shape
torch.Size([9, 224, 224])

两个img结果是【两个img的size竟然可以不同,但结果是一样的】

>>> ximg.shape
torch.Size([18, 224, 224])

这种也没法画图啊,如果强行画图也可以。将channel后移,画6个图,这种图鬼知道是什么玩意。

由于数据是经过Norm等变换,不可能满足plt [0..1] for floats or [0..255] for integers

所以有截断。不知道这样强行画出来的图好不好。

结果如下:另外一个图是哥哥和毛舜筠

torchvision.transforms.Compose三——再看一眼_第2张图片

下面还要继续了解这个TSM到底数据是怎么输入输出的。

且看下回分解,拜拜。

 

请来看看我吧。Please Do not Keep me Waiting.

另外有相关问题可以加入QQ群讨论,不设微信群

QQ群:868373192 

语音图像深度-学习群

或者发我邮箱:

[email protected]

 

你可能感兴趣的:(python)