机器学习-期末复习

文章目录

  • 第一章线性回归
    • 1、线性回归问题
    • 2、误差项定义
    • 3、独立同分布
    • 4、极大似然估计
    • 5、梯度下降
    • 6、参数更新方法
  • 第五章逻辑回归原理推导
  • 第十一章 决策树原理
    • 1、决策树算法概述
    • 2.实例 信息增益
    • 3.信息增益率 基尼指数
    • 4.剪枝
  • 第十八章神经网络算法原理
    • 1.深度学习要解决的问题
    • 2.深度学习应用领域
    • 补充: K近邻算法
    • 3.得分函数
    • 4.损失函数的作用
    • 5.前向传播和反向传播
    • 6.神经网络整体架构
    • 7.神经元
    • 8.正则化和激活函数
  • 朴素贝叶斯


第一章线性回归

1、线性回归问题

机器学习-期末复习_第1张图片
目的:令工资为x1,年龄为x2,标签为y即额度,求出θ1和θ2即可求出方程。

2、误差项定义

机器学习-期末复习_第2张图片
机器学习-期末复习_第3张图片
θ0可以使得求得的线或者平面上浮或下降。
θ0没有x0以至于无法凑成矩阵形式。自己构造x0,里面数据都为1,处理完等于本身。
机器学习-期末复习_第4张图片
添加完x0之后,就转化成一种矩阵形式。机器学习-期末复习_第5张图片
y(i)是真实值,而θ和x组成的称之为预测值,预测值和真实值之间的称为误差。
希望误差项越小越好。

3、独立同分布

机器学习-期末复习_第6张图片

4、极大似然估计

机器学习-期末复习_第7张图片
由于误差服从高斯分布,那个式子里面均值是为0,所以得到第二行的式子。
这个高斯分布是关于误差项的,但是我们要求的是θ,而不是误差,所以转换一下,将一式θx左移,得yi-θxi=误差,而误差满足二式,将其代入后,可得三式。

机器学习-期末复习_第8张图片
似然函数不管求L(θ)还是求Log L(θ) ,加个对数是为了方便计算,原来是累乘改成累加,我们要求的是θ,而不是结果值。

你可能感兴趣的:(机器学习,人工智能,线性代数)