深度学习复习 新知识点

1.x*y是按元素乘,也叫哈达玛积    x**y也是

2.cat dim=0在行叠一起 行多了很多   dim=1 列堆起来 列多了很多

3.print(z.sum())#所有数值的总和 最后变成一个值,  print(z.numel())#所有数值的个数 

        z.mean()全均值等于z.sum()/z.numl()

4.矩阵范式 矩阵拉成一个向量 算长度 f long

5.矩阵转置 A=A.T

6.求和sum会丢一个维度,  为了求完不丢sum()加参数keepdims=True

7.A.cumsum 累计总和有点意思

8.内积torch.dot按元素乘最后相加,变成返回标量

9.torch.mv

10.torch中一维一定是行向量,列向量一定是一个矩阵

11.亚导数 不可导的情况 该点导数在左右两个范围之间

12. x和w的内积

13.

x=torch.arange(4)

y1 = 2 * torch.dot(x, x)#y1是x与自身乘加起来再乘2的一个标量 28

y2=x * x  #y2是自身乘起来,矢量 [0,1,4,9]

因为向量中每个元素。非线性所以sum之后非线性 偏导相当于无视其他元素? 所以作为标量后backward也可以

14.print 参数end = '\r'导致不打印 要按一次enter才可以 这是由于linux的特性'\r'换行与win10不一样导致的 

15.detach脱离计算图,这里可以分离y来返回一个新变量u,该变量与y具有相同的值, 但丢弃计算图中如何计算y的任何信息。 换句话说,梯度不会向后流经ux

u = y.detach() 梯度没了

 这样就有了

深度学习复习 新知识点_第1张图片

 16.Python控制流的梯度计算看不懂

你可能感兴趣的:(numpy)