深度学习基础知识扫盲

深度学习

  • 监督学习(Supervised learning)
    • 监督学习分类
  • 无监督学习(Non-supervised learning)
    • 无监督学习的算法
    • 无监督学习使用场景
  • 术语
    • 特征值
    • 特征向量
    • 特征工程(Feature engineering)
    • 特征缩放
    • Sigmod function
    • 决策边界
    • 激活函数
    • 过拟合/欠拟合
    • 逻辑回归算法
    • 多类(mutil-classes)分类与多标签(multi-lable)分类
    • 卷积层(Convolutional Layer)
    • 前向传播算法(forward propagation)
    • 反向传播算法(back propagation)
    • 计算图(computation graph)
    • Training Set/ Validation Set/ Test Set
    • 高偏差/和高方差
    • 正则化项(Lambda)
    • 基准性能水平
    • 学习曲线(learning curves)
    • 数据增强(data augmentation)
    • 迁移学习(Transfer learning)
    • 准确率/召回率(Precision/recall)
    • 调和平均数(harmonic mean)
    • 熵(Entrop)
    • 信息增益(Information Gain)

监督学习(Supervised learning)

计算机通过示例进行学习,它从过去的数据进行学习,并将学习结果应用到当前数据中,以预测未来事件,在这种情况下,输入和期望的输出数据都有助于预测未来事件。

监督学习分类

  • 回归(regressing)模型
    通过一系列的训练集,训练出回归算法,来预测新的数据。常见的回归算法有线性回归、逻辑回归、多项式回归和脊回归。
  • 分类(classification)模型
    分类模型可以对输出的变量进行分类,例如:“是“”否“,用于预测数据的类别。比如垃圾邮件检测、情绪分析。

在现实生活中的一些应用有:
文本分类

  • 垃圾邮件检测
  • 天气预报
  • 根据当前市场价格预测房价
  • 股票价格预测等
  • 人脸识别
  • 签名识别
  • 客户发现

无监督学习(Non-supervised learning)

它的本质上是一种统计手段,在没有标签的数据里可以发现潜在的一些结构的一种训练方式。主要具备三个特点:1.没有明确的目的。2.不需要给数据打标签。3.无法量化效果。

无监督学习的算法

  • 聚类
    简单说就是一种自动分类的方法,在监督学习中,你很清楚每一个分类是什么,但是聚类则不是,你并不清楚聚类后的几个分类每个代表什么意思
  • 降维
    降维看上去很像压缩。这是为了在尽可能保存相关的结构的同时降低数据的复杂度。

无监督学习使用场景

  • 发现异常

有很多违法的行为都需要”洗钱“,这些洗钱行为跟普通用户的行为是不一样的,到底哪里不一样?
如果通过人为去分析是一件成本很高很复杂的事情,我们可以通过这些行为特征对用户进行分类,这样容易能找到行为异常的用户,然后再深入分析他们的行为到底哪里不一样,是否属于违法洗钱的范畴。

通过无监督学习,我们可以快速把行为进行分类,虽然我们不知道这些分类意味着什么,但是通过这种分类,可以快速排出正常的用户,更有针对性的对异常行为进行深入分析。

  • 用户细分

这对于广告平台很有意义,我们不仅按照用户的性别、年龄、地理位置等维度对用户进行细分,还可以通过用户的行为对用户进行分类。以便为用户推荐个性化内容。

  • 推荐系统
    淘宝天猫推荐系统,根据用户的购买行为和浏览行为推荐一些相关产品,有些商品是通过无监督学习的聚类推荐出来的。

术语

特征值

每个数据都有自己的属性,这个独特的属性就是特征值。

特征向量

多个特征值所组成的向量。

特征工程(Feature engineering)

通过变换或者组合原特征值,使用直觉去设计新的特征值的工程。
根据长和宽,来设计area面积。
深度学习基础知识扫盲_第1张图片

特征缩放

因为某些属性的数值过大或过小,影响梯度计算,因此要通过放大或所想来修改特征值到合适的位置。

Sigmod function

通过该函数,可以控制输出值在0~1之间。
深度学习基础知识扫盲_第2张图片

决策边界

决策边界有线性的也有非线性的,可有sigmod function函数得来。

深度学习基础知识扫盲_第3张图片
深度学习基础知识扫盲_第4张图片

激活函数

过拟合/欠拟合

过拟合是训练集训练出来的模型,过于贴合实际数据,导致估计值不准确。

深度学习基础知识扫盲_第5张图片
如何解决过拟合的问题呢?

  1. 有更多训练集深度学习基础知识扫盲_第6张图片

  2. 过多特征但训练集少(删除相应特征,缩小大特征的影响) 深度学习基础知识扫盲_第7张图片
    深度学习基础知识扫盲_第8张图片

  3. 正则化(惩罚所有w值,保证值没有太大偏差)
    深度学习基础知识扫盲_第9张图片

逻辑回归算法

  • 逻辑回归函数
    在这里插入图片描述
  • 逻辑回归的成本函数(使用交叉熵来写),aj越接近1,说明估计成本越小。
  • 左边是简单的二元分类函数;右边是Siftmax函数,解决多分类的回归问题。
    深度学习基础知识扫盲_第10张图片

多类(mutil-classes)分类与多标签(multi-lable)分类

mutil-classes classifition 类似于识别一个数字是几,只能是0~9中的一个数字,输出结果是一个数字。
而multi-lable classifition 是一个识别多种标签的问题,输出是一个向量。
深度学习基础知识扫盲_第11张图片

卷积层(Convolutional Layer)

每个神经元只查看输入图像区域的层级,称为卷积层。
深度学习基础知识扫盲_第12张图片
卷积神经网络:
深度学习基础知识扫盲_第13张图片

前向传播算法(forward propagation)

通过输入值,假设w和b,一步一步往后计算。
深度学习基础知识扫盲_第14张图片

反向传播算法(back propagation)

根据前向传播算法的值,从后往前求偏导
深度学习基础知识扫盲_第15张图片

计算图(computation graph)

描述计算过程的图像
深度学习基础知识扫盲_第16张图片
深度学习基础知识扫盲_第17张图片

Training Set/ Validation Set/ Test Set

训练集:用来训练w,b的参数。生成w,b。
交叉验证集、开发集、验证集:用来选择具体的模型。生成d。
测试集:要有泛化评估能力,不能参与参数生成。

深度学习基础知识扫盲_第18张图片

高偏差/和高方差

深度学习基础知识扫盲_第19张图片
左图是高偏差,右图是高方差。


  • 高偏差不能只增大训练集数据量,没用!!
    深度学习基础知识扫盲_第20张图片
  • 高方差可以增加训练集的数据量,来减小Jcv!!!
    深度学习基础知识扫盲_第21张图片

针对高方差和高偏差的解决方法:
深度学习基础知识扫盲_第22张图片


如何
深度学习基础知识扫盲_第23张图片

正则化项(Lambda)

正则化可以调整参数的权重,从而影响fit的效果。

深度学习基础知识扫盲_第24张图片

Lambda越大,算法越试图保持平方项越小,正则化项的权重越大,对训练集实际的表现关注越少。(欠拟合);Lambda越小,越过拟合。

基准性能水平

可以合理的希望学习算法最终达到的误差水平;建立基准性能水平常见的是:衡量人在这项任务上的表现;或者是对比其他相似的算法。

深度学习基础知识扫盲_第25张图片

学习曲线(learning curves)

为什么训练集越大,训练集的损失函数越大?
以右面的图为例:数据越多,二次函数越难拟合数据,只有一个数据时,能完美拟合,但当数据越来越越多,损失函数就越大。
为什么验证集的损失函数越来越小呢?
因为训练集越大,越可能准确,因此验证集的损失函数会变小。
深度学习基础知识扫盲_第26张图片

数据增强(data augmentation)

通过修改已有的数据,(图片放缩,反转,透视变换、扭曲失真)或者音频变换(添加背景噪音)来变成新的样例。通过这些方法,可以获得更多数据。

深度学习基础知识扫盲_第27张图片

迁移学习(Transfer learning)

将别人训练好的模型和网络(包括参数,但不包括output layer的参数,因为结果不一样),完全复制过来,由于output lunits 不同,所以w5,b5不能用,因此用前4组w,b训练第五组‘或者仅仅复制网络,参数自己训练。
深度学习基础知识扫盲_第28张图片

方法一:适用训练集较少的情况,数据不够。
方法二:使用训练集较多的情况,数据量充足,自己训练更好。


迁移学习的步骤:
深度学习基础知识扫盲_第29张图片

准确率/召回率(Precision/recall)

(稀有病的预测)
Precision:预测的稀有病的准确率,如下表:(越高越好)
recall():在所有得病的人群中,被检测出有病的概率。越高越好。

深度学习基础知识扫盲_第30张图片


如何权衡精度与召回率之间的关系:
高精度:更偏向于信任True
高召回:更偏向信任False
深度学习基础知识扫盲_第31张图片

调和平均数(harmonic mean)

这种mean更加倾向于较小的平均数:

深度学习基础知识扫盲_第32张图片
深度学习基础知识扫盲_第33张图片

熵(Entrop)

表示一个样本的混乱程度,熵越大,样本越混乱,越不纯。
深度学习基础知识扫盲_第34张图片

信息增益(Information Gain)

熵的减少/减少杂质/增大纯度称为信息增益。

你可能感兴趣的:(深度学习,深度学习,人工智能)