【笔记】3.7循环神经网络

密集层->循环神经网络

  • 语言模型:预测下一个词
  • 使用MLP不能很好的处理序列信息

RNN and Gated RNN

  • 【笔记】3.7循环神经网络_第1张图片
  • Gated RNN(LSTM, GRU): finer control of information flow
    -【笔记】3.7循环神经网络_第2张图片
    代码实现
W_xh=nn.Parameter(torch.randn(num_inputs,num_hiddens)*0.01)
W_hh=nn.Parameter(torch.randn(num_hiddens,num_hiddens)*0.01)
b_h=nn.Parameter(torch.zeros(num_hiddens))

H=torch.zeros(num_hiddens)
outputs=[]

for X in inputs:
    H=torch.tanh(X @ W_xh+H @ W_hh +b_h)
    outputs.append(H)

Bi-RNN and Deep RNN
【笔记】3.7循环神经网络_第3张图片
【笔记】3.7循环神经网络_第4张图片
模型选择
【笔记】3.7循环神经网络_第5张图片

【笔记】3.7循环神经网络_第6张图片
Summary:

  • MLP:stack dense layers with non-linear activations
  • CNN: stack convolution activation and pooling layers to efficient extract spatial information
  • RNN: stack recurrent layers to pass temporal information through hidden state

你可能感兴趣的:(实用机器学习中文版,rnn,深度学习,神经网络)