吴恩达机器学习打卡day7

本系列文档按课程视频的章节(P+第几集)进行分类,记录了学习时的一些知识点,方便自己复习。

课程视频P64

图1 ,2表示通过对特征向量的进一步细分,是一种提升邮件分类效率的方法。

吴恩达机器学习打卡day7_第1张图片

图1

吴恩达机器学习打卡day7_第2张图片

图2

课程视频P65

**在实践项目中,应该先简单粗暴的做出一个简单的算法,运行出学习曲线,然后根据曲线的特点对应查找当前模型存在的问题,是数据量不够还是特征向量太少等等…然后对症下药去把时间花在这些值得花的地方上,而不是靠直觉,直觉经常会出错。
**
吴恩达机器学习打卡day7_第3张图片

图3

课程视频P66——误差分析(error analysis)

图4 表示了误差分析(error analysis)就是一个很好的方法,比如在邮件分类器中我们就可以通过检查被错误分类的邮件,观察它们按特点分类,找出识别错误最多的一类邮件着手改善,这往往能很好的指导我们改进模型的方向。。
吴恩达机器学习打卡day7_第4张图片

图4

课程视频P67

*图5 表示了查准率和召回率,对应西瓜书第二章。
吴恩达机器学习打卡day7_第5张图片

图5

课程视频P68

** 图6 选择自己想要的查准率和召回率阈值**
吴恩达机器学习打卡day7_第6张图片

图6
  ![在这里插入图片描述](https://img-blog.csdnimg.cn/c63b5a6875d646b297ff574a72e13866.png)
图7

课程视频P70

** 图8,9 支持向量机的代价函数**
吴恩达机器学习打卡day7_第7张图片

图8
  ![在这里插入图片描述](https://img-blog.csdnimg.cn/d6cf75b6080e46e9bb16e4bfb8fc90ef.png)
图9

课程视频P71

图9 支持向量机的间距——鲁棒性(robust)
吴恩达机器学习打卡day7_第8张图片

图10

课程视频P72——最大间隔分类器(SVM Decision Boundary 决策边界)

图11 向量内积
吴恩达机器学习打卡day7_第9张图片

图11

吴恩达机器学习打卡day7_第10张图片

图12

图13 通过举例(最底下左右两种决策边界的图)说明了SVM 的决策边界。当边界为左图的样子时,p(i)很小(即样本点与边界的垂直距离很小),此时为了满足约束1 ∣ ∣ θ ∣ ∣ ||\theta|| θ 就很需要很大,同理为了满足约束2 ∣ ∣ θ ∣ ∣ ||\theta|| θ 也很需要很大, ∣ ∣ θ ∣ ∣ ||\theta|| θ 大了之后目标函数就很大,与要求中目标函数min的原则相悖;当边界为右图的样子时,p(i)比左图的大(即样本点与边界的垂直距离变大了),此时为了满足约束 ∣ ∣ θ ∣ ∣ ||\theta|| θ 就不需要左图情况那么大,目标函数值就左图情况更小,所以p(i)大一点结果会更好。
吴恩达机器学习打卡day7_第11张图片

图13

未完待续…

你可能感兴趣的:(机器学习,人工智能,python)