【深度学习】01 - 图像识别

文章目录

  • K最近邻法-KNN
    • N折交叉验证法
    • KNN总结:
  • 线性分类器
    • 得分函数
    • 损失函数(代价函数)
      • 损失函数1:hinge loss/支持向量机损失
      • 损失函数2:互熵损失(softmax分类器)

K最近邻法-KNN

现在用的比较少,因为其比较耗费内存,运行速度较慢

练习:
CIFAR-10数据集
60000张32*32小图片,总共10类,50000张训练和10000测试

【深度学习】01 - 图像识别_第1张图片
下图第一行,左侧为大量的飞机数据,右侧第一个为需要识别的图片,而KNN只是做像素上的识别,所以第六张图还能给出一匹马,两个图片在像素上比较接近。

N折交叉验证法

就是 把训练集分成N个部分,训练其他的N-1个,使用另一个部分进行测试。这样的轮番测试,我们就可以进行训练N次。

KNN总结:

如果去做图像识别,KNN准确度不高,主要原因是
1、找不到很好的特征去表征图像。
2、要记录全部的训练数据
3、训练速度慢

线性分类器

得分函数

我们首先将一个图像进行向量化,如3232的一个彩色猫(下图所示,CIFAR-10),它可以表示成一个32323(RGB三种颜色通道)的列向量,W是每一个参数的权重 ,W为什么是103072呢,3072好解释,就是每一个向量值的对应,10是指这个向量集合中已知是十种类别,每一种类别的得分。 然而W权重的数值范围以及选取,是由数据训练得来的
【深度学习】01 - 图像识别_第2张图片

损失函数(代价函数)

给定W,可以由像素映射到类目的得分
可以调整参数\权重W,使得映射的结果和实际类别吻合
代价函数就是用来衡量吻合度的

损失函数1:hinge loss/支持向量机损失

【深度学习】01 - 图像识别_第3张图片
上图最后一行的说明:max里边的。结果是第一类,则第一类的得分是基本准确额,那么,13就是最终需要的数,我们将其他两种类型的得分分别减去13,正确的分类的得分,再加上一个 区别量△

区别量△:要求最终的图片各种类型的得分,要与正确的分类的得分之间相差10,才算满足条件。如这是一张猫,猫的分类得分是13,此时,狗的分类为-7之间相差20>10,则说明狗的分类得分是满足最终要求的

【深度学习】01 - 图像识别_第4张图片

损失函数2:互熵损失(softmax分类器)

【深度学习】01 - 图像识别_第5张图片

你可能感兴趣的:(人工智能,#,深度学习,深度学习,机器学习,人工智能)