机器学习实战之Logistic回归小结

本文主要记录我在学习机器学习实战Logistic回归这一章遇到的问题。

之前也学习过逻辑回归,逻辑回归一般解决分类问题,之前结合了吴恩达教授的机器学习课程和周志华教授的西瓜书,现在又用机器学习实战这本书籍来学习,这两种方法在实现过程中存在一些差异。

吴恩达机器学习课程和周志华教授的做法如下:
机器学习实战之Logistic回归小结_第1张图片
上面来自吴恩达教授的笔记,详细讲述了损失函数推到过程。

在机器学习实战中:
机器学习实战之Logistic回归小结_第2张图片

参数更新方式相同。
两种方法的目标函数虽不同,但也殊途同归。
我在学习时主要遇到的问题是:
对一维向量进行转置时,例如将行向量转换为列向量时,不要用Y.T,或者transpose函数,因为用这两个函数对一维向量转置根本没用,python中,一维向量转置,行向量任然是行向量。
所以我最后用的reshape函数,这样才没有出错。

本章最后用随机梯度上升算法来降低算法的复杂度,并对学习率进行调整,以及随机选取样本来更新参数。

你可能感兴趣的:(机器学习,python)