pytorch contiguous().view(-1, 1) 作用

在PyTorch中,contiguous()方法和view()方法经常一起使用,通常用来将张量按照指定的形状进行重塑。

contiguous()方法可以用来判断一个张量是否是连续存储的,如果不是,则会返回一个连续存储的副本;

view()方法可以用来对张量的维度进行调整,如压平张量或将张量拆分成多个子张量。

在具体的代码中,contiguous().view(-1, 1)的作用是将一个不连续存储的张量重塑成一个列向量。具体而言,该代码会先使用contiguous()方法将输入张量变成一个连续存储的副本,然后使用view()方法将其重塑为一个列向量,其中-1表示自动计算该维度的大小,1表示该列向量只有一列,即为一个列向量。注意,使用view()方法对非连续存储的张量进行操作时,需要先使用contiguous()方法将其变成连续存储的张量,否则可能会出现运行时错误。

举个例子,假设有一个形状为(3, 3, 4)的张量x,它不是连续存储的,我们希望将其重塑为一个列向量。可以使用如下的代码实现:

import torch

x = torch.randn(3, 3, 4)
print(x.is_contiguous())   # 输出:False
y = x.contiguous().view(-1, 1)
print(y.size())            # 输出:torch.Size([36, 1])

其中,x.is_contiguous()可以用来检查张量是否是连续存储的,输出为False。在对x进行重塑时,我们首先使用contiguous()方法将其变成连续存储的副本,然后使用view()方法将其重塑为一个列向量。最终,输出y的大小为(36, 1),即36行1列的列向量。

你可能感兴趣的:(pytorch,人工智能,python)