CS231N 学习笔记 Lecture_1&2 CNN简介 图像分类

视频链接:b站 有字幕 . https://www.bilibili.com/video/av16388822/?from=search&seid=6753351402600537490

Lecture_1

主要说了一些CV的历史发展

1973年,如何识别物品,思想是复杂对象都是由简单元素组成的,例如圆柱体和圆形。

2000左右主要使用统计机器学习相关方法,例如SVM,神经网络等。



CS231N 学习笔记 Lecture_1&2 CNN简介 图像分类_第1张图片

在2011年, 上图的最左侧,分层的,首先计算一些功能,接着计算本地的不变性,经过加工后输入给线性SVM

2012年,Hinton,七层卷积神经网络,AlexNet

之后的网络更深


CNN出现与1998年,贝尔实验室,用于识别数字。经过十几年流行起来的原因1.计算机的计算能力增强。2.过去没有很多有标注的数据。


Lecture_2:

Image Classification pipeline

python学习链接:http://cs231n.github.io/python-numpy-tutorial/

google cloud使用地址:http://cs231n.github.io/gce-tutorial/

1. 根据边界线----太脆弱了,效果不好。

2. 神经网络分类器

CS231N 学习笔记 Lecture_1&2 CNN简介 图像分类_第2张图片

1)分类器:最近邻


CS231N 学习笔记 Lecture_1&2 CNN简介 图像分类_第3张图片

数据集例子:CIFAR10,有10类,五万个训练集,一万个测试集

如何对比图片:L1 distance

CS231N 学习笔记 Lecture_1&2 CNN简介 图像分类_第4张图片

时间复杂度:训练O(1),predict:O(N)

k近邻可以使得分类更加准确,边缘更加平滑。


CS231N 学习笔记 Lecture_1&2 CNN简介 图像分类_第5张图片


可视化:http://vision.stanford.edu/teaching/cs231n-demos/knn/

白色部分:没有最近邻的


CS231N 学习笔记 Lecture_1&2 CNN简介 图像分类_第6张图片

选择在验证集上表现最好的一组参数,按照该参数训练好模型后,在测试集上跑的结果才出现在报告或者论文中。所以只有在最后才接触测试集。

CS231N 学习笔记 Lecture_1&2 CNN简介 图像分类_第7张图片

K近邻方法不适用于图像分类的原因:1. 图像的相似性用L1或L2距离不适用。2.纬数灾难,纬数越高则越需要更多的数据去覆盖空间。


2)线性分类器 Linear classifiers

最简单的模型为:参数模型,令输入图片为32x32x3,偏置项不与训练数据交互,只是提供某种数据的独立性。如果数据中喵占比例比汪大,那么就增加喵的偏置项

CS231N 学习笔记 Lecture_1&2 CNN简介 图像分类_第8张图片

线性分类器为了学习一个模版,如果这个类有什么变化,分类器会想要平衡所有的不同的外表,而使用单一的模版。

线性分类器每个类只有一个模版


CS231N 学习笔记 Lecture_1&2 CNN简介 图像分类_第9张图片

对于线性分类器来说很难的案例:

CS231N 学习笔记 Lecture_1&2 CNN简介 图像分类_第10张图片

你可能感兴趣的:(CS231N 学习笔记 Lecture_1&2 CNN简介 图像分类)