打卡第七天-线性分类器损失函数与最优化(下)

Softmax vs. SVM

打卡第七天-线性分类器损失函数与最优化(下)_第1张图片
softmax vs. svm
  • 10是正确的分类所得分数
  • 问题:假设我选择一个数据点,并稍微抖动了一下(稍微改变了它的分数)。在这两种情况下,损失发生了什么?
  • 答案:svm几乎不受影响,而softmax会有影响。比如-100,微小的改变后,依然是0,而softmax的概率则也会随之微小的改变。
  • 区别:SVM对接近分类边缘的数据较为敏感,而对于离边界远的样例点不敏感;softmax是基于所有样例数据的函数,对每个样例点都有所考量。
  • 有很多函数可以作为损失函数,这里介绍了常用的两个。
  • 我们可以根据分数的不同,悬着不同的损失函数。
  • 一个demo,动态展示分类过程
    http://vision.stanford.edu/teaching/cs231n/linear-classify-demo/

优化(权重)

回顾loss计算

打卡第七天-线性分类器损失函数与最优化(下)_第2张图片
recap

优化方法

1. 随机搜索:准确率15.5%

随机搜索

2. 沿着斜率走

  • 斜率计算公式
打卡第七天-线性分类器损失函数与最优化(下)_第3张图片
斜率
  • 计算斜率
打卡第七天-线性分类器损失函数与最优化(下)_第4张图片
计算斜率
  • 数学的计算方法的缺点:求解的损失值是近似的;计算缓慢
打卡第七天-线性分类器损失函数与最优化(下)_第5张图片
这种方法很傻
  • 解析梯度-微积分
打卡第七天-线性分类器损失函数与最优化(下)_第6张图片
公式计算法
  • 总结:一般适用解析梯度,数值梯度用来检验解析梯度是否正确。
打卡第七天-线性分类器损失函数与最优化(下)_第7张图片
总结

Mini-batch 梯度下降

  • 只用一部分数据来计算梯度
  • 会有噪音
  • 可以提高效率
打卡第七天-线性分类器损失函数与最优化(下)_第8张图片
Mini-batch
打卡第七天-线性分类器损失函数与最优化(下)_第9张图片
learning rate

权重更新方法

打卡第七天-线性分类器损失函数与最优化(下)_第10张图片
different update form formulas

视觉特征

打卡第七天-线性分类器损失函数与最优化(下)_第11张图片
特征1
打卡第七天-线性分类器损失函数与最优化(下)_第12张图片
特征2
打卡第七天-线性分类器损失函数与最优化(下)_第13张图片
example
打卡第七天-线性分类器损失函数与最优化(下)_第14张图片

你可能感兴趣的:(打卡第七天-线性分类器损失函数与最优化(下))