学习pytorch12 神经网络-线性层

神经网络-线性层

  • 官方文档
    • 自行了解的网络层
      • 归一化层 Normalization
      • 循环层 Recurrent
      • Transformer
      • Alphafold
      • Dropout
      • Sparse 稀疏层
      • Distence 距离函数
      • Loss 损失函数
    • 线性层

官方文档

https://pytorch.org/docs/stable/nn.html#normalization-layers

自行了解的网络层

归一化层 Normalization

百度 弹幕 都说Normalization是归一化层【标准化层】,regulation才是正则化层

https://blog.csdn.net/weixin_40895135/article/details/130651226

学习pytorch12 神经网络-线性层_第1张图片

循环层 Recurrent

多用于文字识别
学习pytorch12 神经网络-线性层_第2张图片

Transformer

学习pytorch12 神经网络-线性层_第3张图片

Alphafold

https://zhuanlan.zhihu.com/p/393699764?utm_medium=social&utm_oi=1144761973647597568

Dropout

目的: 防止过拟合
学习pytorch12 神经网络-线性层_第4张图片
学习pytorch12 神经网络-线性层_第5张图片

Sparse 稀疏层

https://blog.csdn.net/qq_51870267/article/details/126413057

只计算非零特征,对输入图像降维
学习pytorch12 神经网络-线性层_第6张图片

Distence 距离函数

计算两个值的距离 衡量两个值之间的误差
学习pytorch12 神经网络-线性层_第7张图片

Loss 损失函数

根据损失函数 可以判断模型的好坏,也可以以此去调整模型
损失函数越小,模型越好 L(f(x), Y)
学习pytorch12 神经网络-线性层_第8张图片

线性层

学习pytorch12 神经网络-线性层_第9张图片
学习pytorch12 神经网络-线性层_第10张图片

学习pytorch12 神经网络-线性层_第11张图片

你可能感兴趣的:(学习pytorch,学习,神经网络,人工智能)