] 斯坦福ML公开课笔记9——偏差/方差、经验风险最小化、联合界、一致收敛

[置顶] 斯坦福ML公开课笔记9——偏差/方差、经验风险最小化、联合界、一致收敛

分类: 机器学习   184人阅读  评论(0)  收藏  举报
偏差方差 联合界 经验风险最小化 一致收敛

本篇与前面不同,主要内容不是算法,而是机器学习的另一部分内容——学习理论。主要包括偏差/方差(Bias/variance)、经验风险最小化(Empirical Risk Minization,ERM)、联合界(Union bound)、一致收敛(Uniform Convergence)。

Ng对学习理论的重要性很是强调,他说理解了学习理论是对机器学习只懂皮毛的人和真正理解机器学习的人的区别。学习理论的重要性在于通过它能够针对实际问题更好的选择模型,修改模型。

] 斯坦福ML公开课笔记9——偏差/方差、经验风险最小化、联合界、一致收敛_第1张图片

] 斯坦福ML公开课笔记9——偏差/方差、经验风险最小化、联合界、一致收敛_第2张图片

] 斯坦福ML公开课笔记9——偏差/方差、经验风险最小化、联合界、一致收敛_第3张图片

] 斯坦福ML公开课笔记9——偏差/方差、经验风险最小化、联合界、一致收敛_第4张图片


你可能感兴趣的:(机器学习)