吴恩达机器学习Day5

逻辑回归的梯度下降:

吴恩达机器学习Day5_第1张图片

对w和b求偏导结果与线性回归是相似的(神奇);

但事实上并不一样:

吴恩达机器学习Day5_第2张图片

训练逻辑回归模型:sklearn函数

过拟合(overfitting):

吴恩达机器学习Day5_第3张图片

即使非常适合训练集但也因为太适合数据,因此是过拟合(高方差);这个模型不具有泛化到新样本的能力;

欠拟合(高偏差);

吴恩达机器学习Day5_第4张图片

适中(泛化);

吴恩达机器学习Day5_第5张图片

解决过拟合:

①更多的训练数据;

②是否可以使用更少的特征;

③使用正则化来减小参数的大小(better);

线性回归正则化:

吴恩达机器学习Day5_第6张图片

在代价函数后边加上一个正则项;

lambda需要选择一个合适的值不能太大也不能太小;

逻辑回归正则化:

你可能感兴趣的:(人工智能,深度学习)