吴恩达机器学习笔记week6——逻辑回归 Logistics Regression)

吴恩达机器学习笔记week6——逻辑回归 Logistics Regression)

    • 6-1.分类 Classification
    • 6-2.假设陈述 Hypothesis Representation
    • 6-3.决策界限 decision boundary
    • 6-4.代价函数 Cost function——拟合逻辑回归,得出模型参数theta
    • 6-5.简化代价函数与梯度下降 Simplified cost function and gradient descent
    • 6-6.高级优化 Advanced optimization——优于梯度下降算法
    • 6-7.多元分类:一对多 Multi-class classification:One-vs-all
    • 6-8.补:特征映射 feature mapping

6-1.分类 Classification

二分类:Negative Class && Positive Class
多分类
threshold 门槛,阈,界
线性回归算法不适用于分类问题
逻辑回归算法特点:输出或者预测值的范围界于0–1之间

6-2.假设陈述 Hypothesis Representation

classifier 分类器
sigmoid函数==logistic函数
吴恩达机器学习笔记week6——逻辑回归 Logistics Regression)_第1张图片
此处假设函数的含义为y=1的概率

6-3.决策界限 decision boundary

决策边界是假设函数及其参数的一个属性,而不是数据集的属性,即与数据集无关(训练集用来拟合参数theta)
吴恩达机器学习笔记week6——逻辑回归 Logistics Regression)_第2张图片
对于sigmoid函数,若y==1,则theta transpose x>=0,在theta已知的情况下,形成决策边界
决策边界可能是直线,可能是圆,可能是椭圆…

6-4.代价函数 Cost function——拟合逻辑回归,得出模型参数theta

optimization objective优化目标==cost function代价函数
分类问题不能使用线性回归的代价函数,会形成关于theta的非凸函数non-convex,不能找到最小值

用以下代价函数:(来源于统计学中的极大似然法)
在这里插入图片描述
吴恩达机器学习笔记week6——逻辑回归 Logistics Regression)_第3张图片

6-5.简化代价函数与梯度下降 Simplified cost function and gradient descent

由于y=0或者y=1将上面代价函数整合成一个式子
吴恩达机器学习笔记week6——逻辑回归 Logistics Regression)_第4张图片
吴恩达机器学习笔记week6——逻辑回归 Logistics Regression)_第5张图片
虽然这里梯度下降表达式与线性回归梯度下降表达式看起来一样,但此处的假设函数定义已经不一样,所以是两种完全不一样的算法。
特征缩放同样可以应用在逻辑回归算法,使梯度下降收敛更快

6-6.高级优化 Advanced optimization——优于梯度下降算法

  • Optimization algorithms:
    Gradient descent
    Conjugate gradient共轭梯度算法
    BFGS
    L-BFGS
    这些算法有一个智能内循环,线搜索算法:自动尝试不同的学习率并自动选择一个好的学习率
    吴恩达机器学习笔记week6——逻辑回归 Logistics Regression)_第6张图片

6-7.多元分类:一对多 Multi-class classification:One-vs-all

吴恩达机器学习笔记week6——逻辑回归 Logistics Regression)_第7张图片
转化为3个独立的二元分类问题
多个分类器

6-8.补:特征映射 feature mapping

如果样本量多,逻辑回归问题很复杂,而原始特征只有x1,x2可以用多项式创建更多的特征x1、x2、x1x2、x1^2 、 x1^2、… X1^n 、X2^n。因为更多的特征进行逻辑回归时,得到的分割线可以是任意高阶函数的形状。
feature mapping(特征映射)
polynomial expansion
for i in 0…power
for p in 0…i:
output x1^(i-p) * x2^p

你可能感兴趣的:(机器学习)