本专栏的文章是我学习斯坦福cs231n课程的笔记和理解, 同时也欢迎大家可以访问我的个人博客,查看本篇文章
如何确定W,如何利用训练数据得到好的W。
损失函数:定义一个函数,输入W,然后定量计算W的好坏。
给定一个样本 ( x i , y i ) (x_i,y_i) (xi,yi),其中 x i x_i xi是图片, y i y_i yi是图片真实对应的标签,就是第几类,i代表是训练集第i个样本。用支持向量机表示为: L i = ∑ j ≠ y i m a x ( 0 , s j − s y i + 1 ) L_i = \sum_{j\neq y_i}max(0,s_j-s_{y_i}+1) Li=j=yi∑max(0,sj−syi+1),S为这张图片通过分类器计算出来的各个类的得分。
这个式子也表示了如果真实的类的分数比其他类的分数大于1以上,那么这一项的损失就为0。那么为什么要选择大于1呢?其实1是可以任意确定的一个常数,我们并不关心损失函数中的分数的绝对值,而是关心分数的绝对差值,保证分类正确的分数要远远大于分类不正确的分数。因此这个常数项1就不是很重要,如果把W进行放大和缩小,那么每个分数也会放大和缩小,这个常数会消失。
例子:
分别计算每个样本的损失值,求平均数。 L = 1 N ∑ i = 1 N L i L = \dfrac{1}{N}\sum^N_{i=1}L_i L=N1i=1∑NLi 这个值就反映了当前我们的分类器在数据集上的分类效果。
代码:
def L_i_vectorized(x,y,W):
scores = W.dot(x)
margins = np.maximum(0,scores - scores[y] + 1)
margins[y] = 0
loss_i = np.sum(margins)
return loss_i
如果找到一个损失值为0的W,我们应该使用吗?
其实我们并关心函数在训练数据集上拟合的怎么样,我们更关心在测试数据集上的表现。如果告诉分类器你唯一的目标就是去拟合训练数据集,分类器去尽力拟合训练的数据,甚至达到很完美的地步,这其实是很糟糕的情况。因为此时如果加入一些新的数据进来,那么这个拟合曲线就很难拟合这些新的点。因此我们更加希望,分类器是那个绿色的线而非蓝色的完全拟合所有训练数据的线
添加正则项R(W),鼓励模型以某种方式选择更简单的W,这里的简约取决于任务的规模和模型的种类。体现了奥卡姆剃刀理论:如果你有多个可以解释你观察结果的假设,一般来讲,你应该选择最简约的,因为这样可以在未来将其用于解释新的观察结果。
使用超参数 λ \lambda λ来平衡损失函数中的数据损失项和正则项。
正则化的主要目的就是减轻模型的复杂度,而不是去视图拟合数据。
最常用的就是L2正则化 ,L2, ∑ k ∑ l W k , l 2 \sum_k\sum_lW_{k,l}^2 ∑k∑lWk,l2
在SVM中,我们并没有过多的关注得分,只是想要真实的正确类别的分数要比不正确的分类得分要高才好。并没有解释这些分数的真实含义,在softmax中将对这些得分进行一些计算以便得到分数的概率分布。
公式为 L i = − l o g ( e s y i ∑ j e s j ) L_i = -log(\dfrac{e^{s_{y_i}}}{\sum_je^{s_j}}) Li=−log(∑jesjesyi),其中i为第i个样本,$ y_i $表示正确的类别,S为各个类别的分数
流程:
下面是几个问题
我们已经通过数据集利用线性分类器计算出得分,并根据得分和数据真实的分类利用损失函数计算出损失值,通常会增加正则化操作,试图在训练数据之间进行权衡。那么下一步就是如何优化W,如何使W损失最小化?
实践中,我们使用不同的迭代方法进行优化
最简单粗暴的想法可能就是随机搜索,就是盲搜,这是一个很烂的算法,这里不多介绍。
比如说我们在山顶,要以最快的速度下山,我们可以每一次都沿着最陡峭的方向走一步,这样一直走到山底。在数学中,我们可以用梯度这个概念来表示最陡的方向,梯度指向函数增加最快的方向,负梯度就是函数减小最快的方向。
对于多元的情况,这个时候我们需要求的东西扩展成每个方向的『偏导数』,然后把它们合在一块组成梯度向量。
从定义上来算,也叫有限差分法,就是对于每一个维度在原始数值上加上一个很小的h,然后求出这个维度上的偏导,最后组合在一起得到梯度grad
def eval_numerical_gradient(f, x):
"""
一个最基本的计算x点上f的梯度的算法
- f 为参数为x的函数
- x 是一个numpy的vector
"""
fx = f(x) # 计算原始点上函数值
grad = np.zeros(x.shape)
h = 0.00001
# 对x的每个维度都计算一遍
it = np.nditer(x, flags=['multi_index'], op_flags=['readwrite'])
while not it.finished:
# 计算x+h处的函数值
ix = it.multi_index
old_value = x[ix]
x[ix] = old_value + h # 加h
fxh = f(x) # 计算f(x + h)
x[ix] = old_value # 存储之前的函数值
# 计算偏导数
grad[ix] = (fxh - fx) / h # 斜率
it.iternext() # 开始下一个维度上的偏导计算
return grad
实际计算中,这个方法的问题很大。最突出的就是效率问题,比如在我们的CIFAR-10例子中,我们总共有30730个参数,因此我们单次迭代总共就需要计算30730次损失函数。这个问题在之后会提到的神经网络中更为严重,很可能两层神经元之间就有百万级别的参数权重,很低下
直接使用微积分的知识,写下梯度的表达式,这里梯度的表达式就是每个参数的偏导数,每次计算只需要带入公式即可。从W开始,计算dW或每一步的梯度。
实际中,我们不会直接使用数值梯度的方法,但是我们可以使用数值梯度的方法来验证解析梯度的准确性。
再举一个小例子(这里的反向传播法暂时不介绍):对于函数 f ( x , y , z ) = ( x + y ) z f(x,y,z)=(x+y)z f(x,y,z)=(x+y)z
# first method 解析法
def grad1(x,y,z):
dx = z
dy = z
dz = (x+y)
return (dx,dy,dz)
# second method 数值法
def grad2(x,y,z,epi):
# dx
fx1 = (x+epi+y)*z
fx2 = (x-epi+y)*z
dx = (fx1-fx2)/(2*epi)
# dy
fy1 = (x+y+epi)*z
fy2 = (x+y-epi)*z
dy = (fy1-fy2)/(2*epi)
# dz
fz1 = (x+y)*(z+epi)
fz2 = (x+y)*(z-epi)
dz = (fz1-fz2)/(2*epi)
return (dx,dy,dz)
# third method 反向传播法
def grad3(x,y,z):
# forward
p = x+y;
f = p*z;
# backward
dp = z
dz = p
dx = 1 * dp
dy = 1 * dp
return (dx,dy,dz)
print (": %.2f %.2f %.2f" %(grad1(1,2,3)))
print (": %.2f %.2f %.2f" %(grad2(1,2,3,1e-5)))
print (": %.2f %.2f %.2f" %(grad3(1,2,3)))
在梯度下降算法中,首先我们初始化W为随机值,当为真时,我们计算损失和梯度,然后向着梯度相反的方向更新权重W值。
每次更新的步长是一个超参数,又叫学习率,就相当于每次选择最陡峭的方向走一步,这一步走多长。
其实在每次走一步时,会有很多种比较高级一点更新的法则,其本质就是梯度下降,每一步都试着朝着下坡走,这个后面详细讨论。
每次迭代时并不会去选择所有的数据集,这样的成本会很高,速度很慢。
随机梯度下降,每次迭代时,并不选择全部的样本,而是随机选择小部分的样本(minibatch),一般为2的次幂,利用小批量的数据来估计误差总和以及实际梯度
欢迎大家可以访问我的个人博客,查看本篇文章