吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化

逻辑回归

【分类问题 || y为离散值】

(1)使用线性回归解决分类问题

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第1张图片

【使用线性回归解决逻辑回归不是一个很好的办法】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第2张图片

(2)假设函数

【通过sigmoid函数,使得h(x)的值在 0 ~ 1 之间】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第3张图片

(3)假设函数输出的含义

【h(x):当输入为x时,输出为y的概率】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第4张图片

(4)逻辑回归的决策边界

【选择一个值作为决策边界的判断值,例如下图选的是0.5】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第5张图片

【h(x)对应的线就是决策边界,与参数有关,不是训练集的属性】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第6张图片

 (5)非线性回归边界 

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第7张图片

(6)代价函数

【假设函数 定义】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第8张图片

 【如果直接使用线性回归的损失函数,得到的将会是一个非凹函数,但是我们想要的是凹函数,所以不能直接使用】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第9张图片

【逻辑回归的代价函数】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第10张图片

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第11张图片

(7)简化代价函数

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第12张图片

(8)更新参数

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第13张图片

 (9)高级优化

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第14张图片

 【举例】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第15张图片

【注意:Ocatve中的下标是从 1 开始的】 

 (10)逻辑回归解决多类别分类问题(1对多)

【训练多个分类器】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第16张图片

【选择 h 值最大的类别】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第17张图片

正则化

(1)过拟合的例子

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第18张图片

 吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第19张图片

 (2)解决方法

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第20张图片

 (3)修改代价函数

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第21张图片

 【加入正则化项】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第22张图片

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第23张图片 

【lamda过大可能会出现欠拟合】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第24张图片 

(4)线性回归 正则化

【梯度下降】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第25张图片 

 【正规方程解】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第26张图片

【加入正则化项后,解决了 X^T * X 不可逆的问题】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第27张图片 

(5)逻辑回归  正则化

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第28张图片

【梯度下降】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第29张图片 

【更高级的优化 : 改变代价函数、导数】

吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化_第30张图片 

 

你可能感兴趣的:(机器学习,学习)