PyTorch——Dropout(丢弃法)

参考链接

  1. https://tangshusen.me/Dive-into-DL-PyTorch/#/chapter03_DL-basics/3.13_dropout

dropout

深度学习模型常常使用丢弃法(dropout)来应对过拟合问题。丢弃法有一些不同的变体。常用的是倒置丢弃法(inverted dropout)。

设某隐藏层为 h h h,第 i i i个隐藏单元为 h i h_{i} hi。当对该隐藏层使用丢弃法时,该层的隐藏单元将有一定概率被丢弃掉。设丢弃概率为 p p p,那么有 p p p的概率 h i h_{i} hi会被清零,有 1 − p 1-p 1p的概率 h i h_{i} hi会除以 1 − p 1-p 1p做拉伸。丢弃概率是丢弃法的超参数。具体地,设随机变量 ξ i \xi _{i} ξi为0和1的概率分别为 p p p 1 − p 1-p 1p。使用丢弃法时我们计算新的隐藏单元 h i ′ {h}'_{i} hi

h i ′ = ξ i 1 − p h i {h}'_{i}=\frac{\xi _{i}}{1-p}{h}_{i} hi=1pξihi

由于 E ( ξ i ) = 1 − p E\left ( \xi _{i}\right )=1-p E(ξi)=1p,因此

E ( h i ′ ) = E ( ξ i ) 1 − p h i = h i E\left ( {h}'_{i}\right )=\frac{E\left ( \xi _{i}\right )}{1-p}h_{i}=h_{i} E(hi)=1pE(ξi)hi=hi

即丢弃法不改变其输入的期望值。

从零实现

def dropout(X, drop_prob):
    X = X.float()
    assert 0 <= drop_prob <= 1
    keep_prob = 1 - drop_prob
    # 这种情况下把全部元素都丢弃
    if keep_prob == 0:
        return torch.zeros_like(X)
    mask = (torch.rand(X.shape) < keep_prob).float()

    return mask * X / keep_prob

drop_prob1, drop_prob2 = 0.2, 0.5

def net(X, is_training=True):
    X = X.view(-1, num_inputs)
    H1 = (torch.matmul(X, W1) + b1).relu()
    if is_training:  # 只在训练模型时使用丢弃法
        H1 = dropout(H1, drop_prob1)  # 在第一层全连接后添加丢弃层
    H2 = (torch.matmul(H1, W2) + b2).relu()
    if is_training:
        H2 = dropout(H2, drop_prob2)  # 在第二层全连接后添加丢弃层
    return torch.matmul(H2, W3) + b3

简洁实现

net = nn.Sequential(
        FlattenLayer(),
        nn.Linear(num_inputs, num_hiddens1),
        nn.ReLU(),
        nn.Dropout(drop_prob1),
        nn.Linear(num_hiddens1, num_hiddens2), 
        nn.ReLU(),
        nn.Dropout(drop_prob2),
        nn.Linear(num_hiddens2, 10)
        )

你可能感兴趣的:(PyTorch,神经网络,dropout,深度学习,pytorch,丢弃法)