深度学习(23):用一个 tensor/numpy 使用赋值初始化另一个 tensor/numpy 出问题

文章目录

      • 一、用一个`tensor`使用赋值初始化另一个 `tensor` 的后果
        • 1 前言
        • 2 用一个tensor赋值初始化另一个tensor--出问题
        • 3 tensor的内存共享机制
        • 4 定义和前面形状 tensor 一样的 tensor
      • 二、用一个`numpy`使用赋值初始化另一个 `numpy` 的后果
        • 1. numpy和tensor一样也有内存共享机制

一、用一个tensor使用赋值初始化另一个 tensor 的后果

1 前言

最近在调试程序的时候,发现自己为了方便,使用直接赋值来获取和前面已经定义的 tensor 相同形状的 tensor,这样是不可取的

2 用一个tensor赋值初始化另一个tensor–出问题

下面用 tensor a 赋值 tensor b,对 tensor b 进行初始化

import torch
a=torch.ones((3,4))
print("a:",a)
print("================")
b=a
print("a:",a)
print("b:",b)
print("================")
b[1][2]=5
print("a:",a)
print("b:",b)
print("================")

运行python脚本,输出如下。可以明显看出,修改 tensor b ,导致 tensor a也被修改

a: tensor([[1., 1., 1., 1.],
        [1., 1., 1., 1.],
        [1., 1., 1., 1.]])
================
a: tensor([[1., 1., 1., 1.],
        [1., 1., 1., 1.],
        [1., 1., 1., 1.]])
b: tensor([[1., 1., 1., 1.],
        [1., 1., 1., 1.],
        [1., 1., 1., 1.]])
================
a: tensor([[1., 1., 1., 1.],
        [1., 1., 5., 1.],
        [1., 1., 1., 1.]])
b: tensor([[1., 1., 1., 1.],
        [1., 1., 5., 1.],
        [1., 1., 1., 1.]])
================

3 tensor的内存共享机制

为了实现高效计算,PyTorch提供了一些原地操作运算,即in-place operation,不经过复制,直接在原来的内存上进行计算。对于内存共享,主要有如下3种情况

通过Tensor初始化Tensor: 直接通过Tensor来初始化另一个Tensor,或者通过Tensor的组合、分块、索引、变形操作来初始化另一个Tensor,则这两个Tensor共享内存。
原地操作符: PyTorch对于一些操作通过加后缀 “ _ ” 实现了原地操作,如add_()和resize_()等,这种操作只要被执行,本身的Tensor则会被改变。
Tensor与NumPy转换: Tensor与NumPy可以高效地进行转换,并且转换前后的变量共享内存。在进行PyTorch不支持的操作时,甚至可以曲线救国,将Tensor转换为NumPy类型,操作后再转换为Tensor
参考:PyTorch基础:Tensor的内存共享

4 定义和前面形状 tensor 一样的 tensor

import torch
a=torch.ones((3,4))
print("a:",a)
print("================")
"""  错误示范
b=a
print("a:",a)
print("b:",b)
print("================")
# 对 b 进行操作 
b[1][2]=5
print("a:",a)
print("b:",b)
print("================")
"""
b=torch.ones(a.shape)  # 或  b=torch.zeros(a.shape)
print("a:",a)
print("b:",b)
print("================")
# 对 b 进行操作
b[1][2]=5
print("a:",a)
print("b:",b)
print("================")

运行输出。此时,改变 b 并没有影响 a

a: tensor([[1., 1., 1., 1.],
        [1., 1., 1., 1.],
        [1., 1., 1., 1.]])
================
a: tensor([[1., 1., 1., 1.],
        [1., 1., 1., 1.],
        [1., 1., 1., 1.]])
b: tensor([[1., 1., 1., 1.],
        [1., 1., 1., 1.],
        [1., 1., 1., 1.]])
================
a: tensor([[1., 1., 1., 1.],
        [1., 1., 1., 1.],
        [1., 1., 1., 1.]])
b: tensor([[1., 1., 1., 1.],
        [1., 1., 5., 1.],
        [1., 1., 1., 1.]])
================

二、用一个numpy使用赋值初始化另一个 numpy 的后果

1. numpy和tensor一样也有内存共享机制

>>> import numpy as np
>>> a=np.ones((3,3))
>>> a
array([[1., 1., 1.],
       [1., 1., 1.],
       [1., 1., 1.]])
>>> b=a
>>> b[1][1]=3
>>> b
array([[1., 1., 1.],
       [1., 3., 1.],
       [1., 1., 1.]])
>>> a
array([[1., 1., 1.],
       [1., 3., 1.],
       [1., 1., 1.]])

你可能感兴趣的:(深度学习,深度学习,python,numpy,tensor,torch)