2.机器学习相关数学基础

1)贴上视频学习笔记,要求真实,不要抄袭,可以手写拍照。

以下是视频学习的一些知识点截图整理:

对于解决概率性问题可画图巧解:

2.机器学习相关数学基础_第1张图片

 

 

 对于解决问题建立的概率模型:

2.机器学习相关数学基础_第2张图片

 

 

 概率公式:

2.机器学习相关数学基础_第3张图片

 

 

 通过应用例子能更好理解贝叶斯公式:

2.机器学习相关数学基础_第4张图片

 

 

 两点分布:

2.机器学习相关数学基础_第5张图片

 

 

 Beta分布的期望:

2.机器学习相关数学基础_第6张图片

 

 

 方阵的行列式:

2.机器学习相关数学基础_第7张图片

 

 

 代数余子式:

2.机器学习相关数学基础_第8张图片

 

 

 矩阵的乘法:

2.机器学习相关数学基础_第9张图片

 

 

 正定阵与其判定:

2.机器学习相关数学基础_第10张图片

 

 

 2.机器学习相关数学基础_第11张图片

 

 

 QR分解:

2.机器学习相关数学基础_第12张图片

 

 

 事件的独立性:

2.机器学习相关数学基础_第13张图片

 

 

 期望的性质:

2.机器学习相关数学基础_第14张图片

 

 

 总期望:

2.机器学习相关数学基础_第15张图片

 

 

 

2)用自己的话总结“梯度”,“梯度下降”和“贝叶斯定理”,可以word编辑,可做思维导图,可以手写拍照,要求言简意赅、排版整洁。

  梯度:我目前将梯度理解为一个向量“斜率”,就是类比于基础的一元函数去理解,因为它的方向与取得最大方向导数的方向一致,且梯度的方向是最大方向导数的方向,因此梯度相当于目标函数的导数,不过在一维、在单个参数的角度看梯度可以理解为导数,但从所以参数角度看梯度就就不是导数了;

  梯度下降:在数学上的角度来看,梯度的方向是函数增长速度最快的方向,那么梯度的反方向就是函数减少最快的方向,因此梯度下降就是用来求某个函数最小值时自变量对应取值。

  贝叶斯定理:从主观上理解,贝叶斯定理既可以先估计一个值(先验概率),然后根据观察的新信息不断修正(可能性函数)。

    2.机器学习相关数学基础_第16张图片

 

你可能感兴趣的:(2.机器学习相关数学基础)