https://courses.d2l.ai/zh-v2/
感知机就是二分类的问题
把0改成-1也行
线性回归输出是一个实数,这里输出是一个离散的类
initalize w=0 and b=0
repeat
if yi[<w,xi>+b] <= 0then # <=0 意味着感知机把样本预测错了
w <-- w + yixi and b <-- b + yi
end if
until all classfied correctly
就是预测和真实值相乘,>0说明预测正确,<0说明预测错误。
看不懂可以先去学感知机的数学推导。
等价于使用批量大小为1的梯度下降,并使用如下的损失函数。
θ ( y , x , w ) = m a x ( 0 , − y < w , x > ) \theta(y,x,w)=max(0, -y
max 对应 if 语句
当正确的时候,loss 为0,为常数,没有梯度
注意,这里梯度下降的学习率设置为1,
隐 藏 层 大 小 是 超 参 数 隐藏层大小是超参数 隐藏层大小是超参数
σ \sigma σ是按元素的激活函数
为什么需要非线性激活函数?
否则结果还是一个最简单的线性函数
hence o = w 2 T W 1 x + b ′ o = w_2^TW_1x + b' o=w2TW1x+b′
把输入投影到(0,1),是一个软的 σ ( x ) = { 1 i f x > 0 0 o t h e r w i s e \sigma(x)= \begin{cases} 1\quad if\; x>0\\ 0\quad otherwise \end{cases} σ(x)={1ifx>00otherwise
σ ( x ) \sigma(x) σ(x)在原点0处不好求导
s i g m o i d ( x ) = 1 1 + e x p ( − x ) sigmoid(x)={1 \over 1+exp(-x)} sigmoid(x)=1+exp(−x)1
把输入投影到(-1,1)
t a n h ( x ) = 1 − e x p ( − 2 x ) 1 + e x p ( − 2 x ) tanh(x)={1-exp(-2x) \over 1+ exp(-2x)} tanh(x)=1+exp(−2x)1−exp(−2x)
ReLU:rectified linear uint
R e L U ( x ) = m a x ( x , 0 ) ReLU(x)=max(x,0) ReLU(x)=max(x,0)
深度学习就是把很多经典的东西重命名
y 1 , y 2 , . . . , y k = s o f t m a x ( o 1 , o 2 , . . . , o k ) y_1,y_2,...,y_k=softmax(o_1,o_2,...,o_k) y1,y2,...,yk=softmax(o1,o2,...,ok)
多类分类和 softmax 回归基本没区别,就是多加了一层隐藏层,从而变成多层感知机
softmax 把所有输入拉到0和1的区域,使得它们加起来等于1,这就得到了概率
h 1 = σ ( W 1 x + b 1 ) h 2 = σ ( W 2 h 1 + b 2 ) h 3 = σ ( W 3 h 2 + b 3 ) o = W 4 h 3 + b 4 h_1 =\sigma(W_1x + b_1)\\ h_2 =\sigma(W_2h_1 + b_2)\\ h_3 =\sigma(W_3h_2 + b_3)\\ o=W_4h_3+b_4 h1=σ(W1x+b1)h2=σ(W2h1+b2)h3=σ(W3h2+b3)o=W4h3+b4
超参数
激活函数主要用来避免层数的塌陷
意思就是,如果是线性映射就能把所有层合并(层数塌陷),非线性就不能合并
import torch
from torch import nn
from d2l import torch as d2l
batch_size = 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)
回想一下,Fashion-MNIST中的每个图像由 28 × 28 = 784 28 \times 28 =784 28×28=784个灰度像素值组成。 所有图像共分为10个类别。 忽略像素之间的空间结构, 我们可以将每个图像视为具有784个输入特征 和10个类的简单分类数据集。 首先,我们将实现一个具有单隐藏层的多层感知机, 它包含256个隐藏单元。 注意,我们可以将这两个变量都视为超参数。 通常,我们选择2的若干次幂作为层的宽度。 因为内存在硬件中的分配和寻址方式,这么做往往可以在计算上更高效。
我们用几个张量来表示我们的参数。 注意,对于每一层我们都要记录一个权重矩阵和一个偏置向量。 跟以前一样,我们要为损失关于这些参数的梯度分配内存。
num_inputs, num_outputs, num_hiddens = 784, 10, 256
W1 = nn.Parameter(torch.randn(
num_inputs, num_hiddens, requires_grad=True) * 0.01)
b1 = nn.Parameter(torch.zeros(num_hiddens, requires_grad=True))
W2 = nn.Parameter(torch.randn(
num_hiddens, num_outputs, requires_grad=True) * 0.01)
b2 = nn.Parameter(torch.zeros(num_outputs, requires_grad=True))
params = [W1, b1, W2, b2]
randn 是正态(0,1)分布,乘0.01使得分布为正态(0,0.1)分布,数据方差更小。
为了确保我们对模型的细节了如指掌, 我们将实现ReLU激活函数, 而不是直接调用内置的relu函数。
def relu(X):
a = torch.zeros_like(X)
return torch.max(X, a)
因为我们忽略了空间结构, 所以我们使用reshape将每个二维图像转换为一个长度为num_inputs的向量。 只需几行代码就可以实现我们的模型。
def net(X):
X = X.reshape((-1, num_inputs))
H = relu(X @ W1 + b1) # 这里“@”代表矩阵乘法
return (H @ W2 + b2)
@ 是 numpy 里面的点积运算符号,相当于np.dot()
这里我们直接使用高级API中的内置函数来计算softmax和交叉熵损失。
loss = nn.CrossEntropyLoss(reduction='none')
幸运的是,多层感知机的训练过程与softmax回归的训练过程完全相同。 可以直接调用d2l包的train_ch3函数参见 Softmax 回归从零开始实现, 将迭代周期数设置为10,并将学习率设置为0.1.
num_epochs, lr = 10, 0.1
updater = torch.optim.SGD(params, lr=lr)
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, updater)
我们可以通过高级API更简洁地实现多层感知机。
import torch
from torch import nn
from d2l import torch as d2l
与softmax回归的简洁实现相比, 唯一的区别是我们添加了2个全连接层(之前我们只添加了1个全连接层)。 第一层是隐藏层,它包含256个隐藏单元,并使用了ReLU激活函数。 第二层是输出层。
net = nn.Sequential(nn.Flatten(),
nn.Linear(784, 256),
nn.ReLU(),
nn.Linear(256, 10))
def init_weights(m):
if type(m) == nn.Linear:
nn.init.normal_(m.weight, std=0.01)
net.apply(init_weights);
训练过程的实现与我们实现softmax回归时完全相同, 这种模块化设计使我们能够将与和模型架构有关的内容独立出来。
batch_size, lr, num_epochs = 256, 0.1, 10
loss = nn.CrossEntropyLoss(reduction='none')
trainer = torch.optim.SGD(net.parameters(), lr=lr)
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, trainer)
- MLP(multi layer perceptron)(多层感知机) 效果要是不好,可以转卷积、RNN、transformer
- 如果转SVM(支持向量机)的话调的东西会要多一点
神经网络中的一层网络指什么?
所谓的一层,一般来说就是权重、加上激活函数和你的计算
可以简记为有几层权重W,就有多少层
输入层不算层
SVM和MLP
SVM对于超参数不敏感,优化调起来会容易一点
多层感知机和SVM效果差不多
SVM数学表达式很优美
MLP容易改成其他神经网络
理论上,模型大小差不多
右边叫深度学习,好训练
左边叫浅度学习(宽度学习),容易过拟合
不能一口吃成一个胖子!
这块李宏毅老师讲得特别好