tensor .t() vs .T

pytorch中.t()与.T都表示转置,那么区别是什么呢?

查阅官方文档,发现 .t().transpose函数的简写版本,但两者都 只能对2维以下的tensor进行转置

tensor .t() vs .T_第1张图片

>>> x = torch.randn(())
>>> x
tensor(0.1995)
>>> torch.t(x)
tensor(0.1995)
>>> x = torch.randn(3)
>>> x
tensor([ 2.4320, -0.4608,  0.7702])
>>> torch.t(x)
tensor([.2.4320,.-0.4608,..0.7702])
>>> x = torch.randn(2, 3)
>>> x
tensor([[ 0.4875,  0.9158, -0.5872],
        [ 0.3938, -0.6929,  0.6932]])
>>> torch.t(x)
tensor([[ 0.4875,  0.3938],
        [ 0.9158, -0.6929],
        [-0.5872,  0.6932]])

.transpose函数对一个n维tensor交换其任意两个维度的顺序
tensor .t() vs .T_第2张图片
.T.permute 函数的简化版本,不仅可以操作2维tensor,甚至可以对n维tensor进行转置。当然当维数n=2时,.t().T 效果是一样的。
tensor .t() vs .T_第3张图片

你可能感兴趣的:(pytorch,tensorflow,深度学习)