Python3入门机器学习 经典算法与应用课程5笔记,6笔记

回归算法评价指标
RMSE MSE MAE 还有一个R Squared(更精确一点),任何 不同的模型除以一个相同的分母,使得在一个量纲里面可以,可以同时比较模型性能, 前者3个,对于不同的模型,得到的值,不能很明确的说明哪个更好好,哪个不好,R^2,越大越好(<=1),模型犯错误越小,(同一个回归算法应用在不同场景的比较问题应用R Square,评价指标(都是缩放到0-1之间)
Python3入门机器学习 经典算法与应用课程5笔记,6笔记_第1张图片
Python3入门机器学习 经典算法与应用课程5笔记,6笔记_第2张图片
Python3入门机器学习 经典算法与应用课程5笔记,6笔记_第3张图片
Python3入门机器学习 经典算法与应用课程5笔记,6笔记_第4张图片
Python3入门机器学习 经典算法与应用课程5笔记,6笔记_第5张图片Python3入门机器学习 经典算法与应用课程5笔记,6笔记_第6张图片from sklearn.metrics import mean_squared_error
1-mean_squared_error(y_test,y_predict) / np.var(y_test)
在这里插入图片描述

5-7 多元线性回归,计算,

Python3入门机器学习 经典算法与应用课程5笔记,6笔记_第7张图片
Python3入门机器学习 经典算法与应用课程5笔记,6笔记_第8张图片

6.8 自定义梯度的调试,查看是否正确

红色点的导数,约等于邻近的两个点的 (y1-y2)/(x1-x2)
这样在每次打印梯度的计算结果,以及,这个公式的计算结果对比两个值是否差不多,是的话,就没错
Python3入门机器学习 经典算法与应用课程5笔记,6笔记_第9张图片
Python3入门机器学习 经典算法与应用课程5笔记,6笔记_第10张图片用少量数据尝试,就是计算的求的梯度近似值,用这种方法可以直接代替梯度(导数公式)的计算方法,但是计算速度会很慢,不会采用这种方式
Python3入门机器学习 经典算法与应用课程5笔记,6笔记_第11张图片Python3入门机器学习 经典算法与应用课程5笔记,6笔记_第12张图片但是,随机梯度下降法,很快,而且可以跳出局部最优解,随机的方法有很多,随机搜索,随机森林

梯度下降法不是一个机器学习的方法,是基于搜索的最优化方法,目的是最小化一个损失函数,而梯度上升法是最大化一个效用函数
Python3入门机器学习 经典算法与应用课程5笔记,6笔记_第13张图片

你可能感兴趣的:(Python3入门机器学习 经典算法与应用课程5笔记,6笔记)