机器学习

  • 分类


    机器学习_第1张图片
  • 训练数据集


    机器学习_第2张图片
  • 检验


    机器学习_第3张图片
  • 如何检测行人在哪里


    机器学习_第4张图片
  • 检测问题转化为分类问题


    机器学习_第5张图片
  • 逻辑回归分类器


    机器学习_第6张图片

    机器学习_第7张图片
  • Softmax函数


    机器学习_第8张图片
  • 数值大小对Softmax函数预测结果的影响


    机器学习_第9张图片
  • 一位有效编码


    机器学习_第10张图片
  • 交叉熵方法计算预测值与实际值的距离


    机器学习_第11张图片
  • Logistic多项式回归法


    机器学习_第12张图片
  • 如何确定W,b:使正确分类距离小,错误分类距离大


    机器学习_第13张图片
  • 罚函数


    机器学习_第14张图片
  • 将机器学习问题转化为数值优化问题


    机器学习_第15张图片
  • 梯度下降法


    机器学习_第16张图片
  • 寻找最优解方法的好坏


    机器学习_第17张图片
  • 标准化处理图片像素的基础数据


    机器学习_第18张图片
  • 寻找好的初始化值:均值为0,标准差为sigma的高斯分布中随机抽样,sigma决定了初始点输出的数量级,sigma越大越武断,越小越谨慎,训练时先小后大比较合适


    机器学习_第19张图片
  • 训练分类器的方法


    机器学习_第20张图片
  • 不断使损失函数越来越小


    机器学习_第21张图片
  • 随机梯度下降


    机器学习_第22张图片
  • 保存梯度的移动平均,代替一批数据的方向


    机器学习_第23张图片
  • 学习率衰减(接近目标的时候,步子要足够小)


    机器学习_第24张图片
  • 模型的训练速度越快,并不一定越好


    机器学习_第25张图片
  • 线性模型需要训练的参数过多


    机器学习_第26张图片
  • 线性模型的局限性


    机器学习_第27张图片
  • 线性模型的定义


    机器学习_第28张图片
  • 线性模型的运算非常稳定


    机器学习_第29张图片
  • 线性函数的导数为常量


    机器学习_第30张图片
  • 无论你神经网络有多少层,输出都是输入的线性组合,与只有一个隐藏层效果相当,如何得到非线性函数


    机器学习_第31张图片
  • 修正线性单元ReLU


    机器学习_第32张图片
  • 简单的神经网络


    机器学习_第33张图片
  • 反向传播法,比起正向传播,要花费2倍的运算与存储空间


    机器学习_第34张图片
  • 为模型增加更深的层次,使得模型效果更好


    机器学习_第35张图片
  • 通过让网络变深的方式,可以让模型参数变少,表现变好


    机器学习_第36张图片
  • 更深的模型,往往会出现层次化的结构


    机器学习_第37张图片
  • 防止过拟合的方法:早停


    机器学习_第38张图片
  • 防止过拟合的方法:正则化


    机器学习_第39张图片
  • L2正则化:核心:在罚函数中加入额外一项,削减大权重的影响,但这样就不可避免的引入了新参数需要调试


    机器学习_第40张图片
  • 丢弃法


    机器学习_第41张图片

你可能感兴趣的:(机器学习)