深度学习深入理解二:pytorch文档研究

pytorch中文文档阅读笔记

CUDA语义与实践

通过torch.cuda.device(n)来控制使用哪一块GPU,可以采用with调用,也可采用tensor.device调用

由于在固定内存(页锁)中的数据,在主机和GPU之间的复制速度快得多。因此CPU张量和存储开放了一个pin_memory()方法,将它的数据放在固定区域

 

torch 常用函数

运算part

  1. torch.addcmul两向量逐元素相乘加到结果向量中 (可以用于mask吧)

  2. torch.clamp将输入向量夹紧,超出范围者变极值

  3. torch.neg将全部元素取负

对特定维度的操作

  1. torch.sum()指定维求和

  2. torch.dist(input, other, p=2, out=None) -> Tensor 返回 (input - other) 的 p范数 。

比较part

  1. torch.eq比较相等性

  2. torch.equal比较等值

  3. torch.max() 返回张量最大元素值 min同理

矩阵运算:

  1. torch.dot矩阵点乘

  2. torch.eig矩阵特征值和向量

torch.tensor

大部分运算都在tensor上实现了内置运算,可以a.fun()调用

 

你可能感兴趣的:(深度学习深入理解,pytorch)