机器学习-批量梯度下降(BGD)

前言

本文主要介绍批量梯度下降与相关代码。
主要流程:
计算梯度,批量累计求和,更新参数,计算前后迭代损失差,看是否小于阈值,True则break,False更新当前error并进入下一轮循环。


提示:以下是本篇文章正文内容,下面案例可供参考

一、批量梯度下降相关理论

将于后续更新!!!

二、代码

1.实例1

代码如下(示例):

# y = theta0 + theta1*x  ---->x0=1

你可能感兴趣的:(MachineLearning,人工智能)