【白板推导】学习笔记

学习视频链接
【机器学习】【白板推导系列】【合集 1~33】

文章目录

  • P2 频率派 vs 贝叶斯派
  • P3 高斯分布(一维正态分布的各参数估计量 θ = ( μ , σ ) {\theta} = (\mu, \sigma) θ=(μ,σ) 计算)
  • P4 高斯分布(一维正态分布的各参数估计量 θ = ( μ , σ ) {\theta} = (\mu, \sigma) θ=(μ,σ) 计算)
    • 未解决的问题:
  • P5 高斯分布(高维正态分布的各参数估计量 θ = ( μ , ∑ ) {\theta} = (\mu, \sum) θ=(μ,) 计算)
    • 前置知识:


P2 频率派 vs 贝叶斯派

【白板推导】学习笔记_第1张图片


P3 高斯分布(一维正态分布的各参数估计量 θ = ( μ , σ ) {\theta} = (\mu, \sigma) θ=(μ,σ) 计算)

【白板推导】学习笔记_第2张图片


P4 高斯分布(一维正态分布的各参数估计量 θ = ( μ , σ ) {\theta} = (\mu, \sigma) θ=(μ,σ) 计算)

未解决的问题:

  1. 如何结合图像理解 σ \sigma σ 估计小了的问题?
  2. 为什么 μ M L E {\mu}_{_{MLE}} μMLE 在参与计算的时候可以当作常数,与 i i i 无关;而不是看作样本均值,与 i i i 相关?

【白板推导】学习笔记_第3张图片


P5 高斯分布(高维正态分布的各参数估计量 θ = ( μ , ∑ ) {\theta} = (\mu, \sum) θ=(μ,) 计算)

前置知识:

  1. ∑ \sum :高维的方差写法,读作 s i g m a sigma sigma,一维时写做 σ \sigma σ
  2. Λ Λ Λ:高维的特征值的写法,读作 l a m d a lamda lamda,一维时写做 λ \lambda λ

【白板推导】学习笔记_第4张图片

你可能感兴趣的:(机器学习数学基础,学习)