pytorch(三)——笔记

目录

  • 梯度
    • 1.什么是梯度
      • 1.1 Clarification
      • 1.2 What does grad mean?
      • 1.3 How to search for minima
      • 1.4 Convex function
      • 1.5 Local Minima
    • 2.激活函数与Loss的梯度
      • 2.1 Activation Functions
      • 2.2 Typical Loss
      • 2.3 auto.grad
      • 2.4 loss.backward
      • 2.5 Softmax
      • 2.6 Derivative
    • 3.感知机
      • 3.1 Perceptron
      • 3.2 Perceptron
      • 3.3 Multi-output Perceptron
  • 神经网路
    • 4.神经网络与全连接
      • 4.1 Lottery
      • 4.2 Cross Entropy
      • 4.3 Binary Classification
      • 4.4 Numerical Stability
    • 5.全连接层
      • 5.1 nn.Linear
      • 5.2 relu
      • 5.3 concisely
      • 5.4 如何训练

梯度

1.什么是梯度

1.1 Clarification

导数:反应变换的程度。偏微分:函数有多少个自变量,它就有多少个偏微分。梯度:梯度是一个向量
pytorch(三)——笔记_第1张图片

1.2 What does grad mean?

梯度是有方向,有大小的
pytorch(三)——笔记_第2张图片

1.3 How to search for minima

给函数找到一个极小值解
pytorch(三)——笔记_第3张图片

1.4 Convex function

凹函数,可以找到一个最优解
pytorch(三)——笔记_第4张图片

1.5 Local Minima

上面的凹函数属于理想状况,真实遇到的情况可能是这样
pytorch(三)——笔记_第5张图片

2.激活函数与Loss的梯度

2.1 Activation Functions

科学家在青蛙的神经元上得到了灵感
pytorch(三)——笔记_第6张图片

2.2 Typical Loss

均方差
pytorch(三)——笔记_第7张图片

2.3 auto.grad

利用pytorch自动求导
pytorch(三)——笔记_第8张图片

2.4 loss.backward

可以直接调用backward求导,它会从后自动往前传播
pytorch(三)——笔记_第9张图片

2.5 Softmax

下图为对于三个节点的输出
pytorch(三)——笔记_第10张图片

2.6 Derivative

pytorch(三)——笔记_第11张图片

3.感知机

3.1 Perceptron

第一层只有一个节点
pytorch(三)——笔记_第12张图片

3.2 Perceptron

pytorch(三)——笔记_第13张图片

3.3 Multi-output Perceptron

pytorch(三)——笔记_第14张图片

神经网路

4.神经网络与全连接

4.1 Lottery

pytorch(三)——笔记_第15张图片

4.2 Cross Entropy

pytorch(三)——笔记_第16张图片

4.3 Binary Classification

对于二分类的问题怎么算
pytorch(三)——笔记_第17张图片

4.4 Numerical Stability

pytorch(三)——笔记_第18张图片

5.全连接层

5.1 nn.Linear

直接写一个多层的连接层
pytorch(三)——笔记_第19张图片

5.2 relu

要求非线性
pytorch(三)——笔记_第20张图片

5.3 concisely

第一步
pytorch(三)——笔记_第21张图片

第二步
pytorch(三)——笔记_第22张图片

第三步
pytorch(三)——笔记_第23张图片

5.4 如何训练

pytorch(三)——笔记_第24张图片

你可能感兴趣的:(深度学习,人工智能,pytorch)