*常用函数

文章目录

      • nn.PReLU() 激活函数

nn.PReLU() 激活函数

PReLU(Parametric Rectified Linear Unit), 顾名思义:带参数的ReLU
在这里插入图片描述
其中a代表的是可学习的参数

ReLU、PReLU的比较:
*常用函数_第1张图片

如果ai=0,那么PReLU退化为ReLU;
如果ai是一个很小的固定值(如ai=0.01),则PReLU退化为Leaky ReLU(LReLU)。

有实验证明,与ReLU相比,LReLU对最终的结果几乎没什么影响。

你可能感兴趣的:(深度学习pytorch系列文章,深度学习)