吴恩达《机器学习》9-1:代价函数

一、引入新标记方法

首先,引入一些新的标记方法,以便更好地讨论神经网络的代价函数。考虑神经网络的训练样本,其中每个样本包含输入 x 和输出信号 y。我们用 L 表示神经网络的层数,表示每层的神经元个数(表示输出层神经元个数)。对于分类问题,将神经网络的分类定义为两种情况:二类分类和多类分类。

吴恩达《机器学习》9-1:代价函数_第1张图片

二、代价函数的变化

回顾逻辑回归问题中的代价函数,有:

在神经网络中,输出变量和因变量都是向量,因此代价函数更为复杂:

这个代价函数考虑了每个样本的每个类别的预测,并通过嵌套的求和来处理不同层的权重。最后一项是正则化项,用于排除每一层的偏置项后,每一层的权重矩阵的平方和。

吴恩达《机器学习》9-1:代价函数_第2张图片

三、正则化的重要性

正则化项在神经网络中同样发挥着重要作用,帮助防止过拟合。通过惩罚权重矩阵中的大值,可以有效地控制模型的复杂性,提高其泛化能力。

通过代价函数,能够观察算法预测结果与实际情况的误差,为调整模型参数提供有力的指导。深入理解神经网络代价函数的结构和作用,有助于更好地理解模型的训练过程和性能评估。

参考资料

[中英字幕]吴恩达机器学习系列课程

黄海广博士 - 吴恩达机器学习个人笔记

你可能感兴趣的:(机器学习,机器学习,学习,笔记)