莫烦Pytorch学习笔记

学习笔记整理连接

莫烦Pytorch的github代码

CNN章节:

  • 讲解CNN的时候padding的值等于 (kernel_size-1)/2
  • 还有每一个层的参数的shape计算很重要
  • 还有卷积核的作用(过滤信息)
  • 池化层的作用降维并且抓住主要特征(为什么要用池化,池化mean和max方法的不同)
  • padding的作用见https://blog.csdn.net/ningyanggege/article/details/87454694(莫烦讲的作用是否正确?)

RNN章节:

  • input_size,hidden_size,num_layers这三个参数详解见https://blog.csdn.net/lwgkzl/article/details/88717678
  • RNN做回归和RNN做分类的不同见:
 for time_step in range(r_out.size(1)):    # calculate output for each time step
            outs.append(self.out(r_out[:, time_step, :]))
        return torch.stack(outs, dim=1), h_state

 

out = self.out(r_out[:, -1, :])
  • 分类是选取RNN的最后一个节点的输出,回归是concatRNN的所有节点的输出(其实分类也可以选择节点的所有输出)
  • forward(self, x, h_state) 中RNN回归比RNN分类多一个h_state,RNN回归的batch之间有连续性,所以要传递h_state

程序员有偿接单和程序指导加QQ:734564390

你可能感兴趣的:(莫烦Pytorch学习笔记)