参考,自学PyTorch深度学习实践(刘二大人)P7 处理多维特征的输入 Multiple Dimension Input_努力学习的朱朱的博客-CSDN博客
激活函数:
参考(常用激活函数(激励函数)理解与总结):常用激活函数(激励函数)理解与总结_tyhj_sf的博客-CSDN博客_激活函数
当我们尝试不同的激活函数时,我们只需修改一小部分内容:
特别的,如果我们设置的激活函数是ReLU,由于它的取值范围是在(0,1),最后一层输出的值如果是小于0的话,那么在ReLU作用后,输出会为0,如果后面我们需要算ln0的话,就会出现问题。这个时候我们就可以把最后一层的激活函数改成sigmoid,这样结果就会得到0-1之间比较光滑的概率输出。