吴恩达机器学习—逻辑回归

  1. 在求costfunction中的参数J的时候,先求J后求cost。若后求J的话,已经迭代生成了最佳的θ求出来的当然是0.

  2. 做题的时候,先画出来样本分布,然后判断是否能够线性分类。不能的话,需要使用featureMapping技巧,将少量特征映射到多样特征中。


    吴恩达机器学习—逻辑回归_第1张图片
    效果如上
  3. 做正则化的时候记得去掉第一列特征值!!!


    正则化后的代价函数

    正则化后的梯度,注意θ是从第二行开始的
吴恩达机器学习—逻辑回归_第2张图片
当lambda = 0的时候,即没有正则化

吴恩达机器学习—逻辑回归_第3张图片
当lambda = 1时
吴恩达机器学习—逻辑回归_第4张图片
当lambda = 10时

吴恩达机器学习—逻辑回归_第5张图片
当lambda = 100时

从上面四幅图我们能感受到正则化对分类的影响,lambda = 0 的时候过拟合,而当lambda为100的时候,由于对θ的惩罚过大,导致欠拟合。

  1. 在判断0或者1的时候,使用逻辑表达式极其方便,比如
x = eye(5);
y = 0;
x == y;

你可能感兴趣的:(吴恩达机器学习—逻辑回归)