Pytorch.org 个人日常函数

记录本人在使用 pytorch 过程中遇到过的函数,长期更新。

1. torch.nn.Sequential(* args)

是一个Sequential容器,模块将按照构造函数中传递的顺序添加到模块中。

2. torch.nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride=1, padding=0, output_padding=0, groups=1, bias=True)

in_channels(int) – 输入信号的通道数
out_channels(int) – 卷积产生的通道数
kerner_size(int or tuple) - 卷积核的大小
stride(int or tuple,optional) - 卷积步长
padding(int or tuple, optional) - 输入的每一条边补充0的层数
output_padding(int or tuple, optional) - 输出的每一条边补充0的层数
dilation(int or tuple, optional) – 卷积核元素之间的间距
groups(int, optional) – 从输入通道到输出通道的阻塞连接数
bias(bool, optional) - 如果bias=True,添加偏置

参数kernel_size,stride,padding,dilation数据类型: 可以是一个int类型的数据,此时卷积height和width值相同; 也可以是一个tuple数组(包含来两个int类型的数据),第一个int数据表示height的数值,第二个int类型的数据表示width的数值
注意
由于内核的大小,输入的最后的一些列的数据可能会丢失。因为输入和输出是不是完全的互相关。因此,用户可以进行适当的填充(padding操作)

3. torch.optim

是一个实现了各种优化算法的库。

4. torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0)[source]

实现Adam算法。
params (iterable) – 待优化参数的iterable或者是定义了参数组的dict
lr (float, 可选) – 学习率(默认:1e-3)
betas (Tuple[float, float], 可选) – 用于计算梯度以及梯度平方的运行平均值的系数(默认:0.9,0.999)
eps (float, 可选) – 为了增加数值计算的稳定性而加到分母里的项(默认:1e-8)
weight_decay (float, 可选) – 权重衰减(L2惩罚)(默认: 0)

5. x.cuda() model.cuda() loss.cuda()

如果想在CUDA上进行计算,需要将操作对象放在GPU内存中

6. torch.rand(*sizes, out=None) → Tensor

返回一个张量,包含了从区间[0,1)的均匀分布中抽取的一组随机数,形状由可变参数sizes 定义。
sizes (int...) – 整数序列,定义了输出形状
out (Tensor, optinal) - 结果张量

7. torch.cat(inputs, dimension=0)

在给定维度上对输入的张量序列seq 进行连接操作。
inputs (sequence of Tensors) – 可以是任意相同Tensor 类型的python 序列
dimension (int, optional) – 沿着此维连接张量序列。
在shape的第几个上进行扩张,即使得shape的第几个值变大
注意
pytorch:[batch_size, channel, w, h]
tensorflow: [batch_size, w, h, channel]

你可能感兴趣的:(Pytorch.org 个人日常函数)