最小二乘法作为损失函数与均方误差(MSE)之间的区别

日萌社

人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新)


损失函数

总损失定义为:

 最小二乘法作为损失函数与均方误差(MSE)之间的区别_第1张图片

  • yi为第i个训练样本的真实值
  • h(xi)为第i个训练样本特征值组合预测函数
  • 又称最小二乘法

如何去减少这个损失,使我们预测的更加准确些?既然存在了这个损失,我们一直说机器学习有自动学习的功能,在线性回归这里更是能够体现。这里可以通过一些优化方法去优化(其实是数学当中的求导功能)回归的总损失!!!

2 优化算法

如何去求模型当中的W,使得损失最小?(目的是找到最小损失对应的W值)

  • 线性回归经常使用的两种优化算法
    • 正规方程
    • 梯度下降法


回归性能评估

均方误差(Mean Squared Error)MSE)评价机制:

最小二乘法作为损失函数与均方误差(MSE)之间的区别_第2张图片

思考:MSE和最小二乘法的区别是?

  • sklearn.metrics.mean_squared_error(y_true, y_pred)
    • 均方误差回归损失
    • y_true:真实值
    • y_pred:预测值
    • return:浮点数结果

最小二乘法作为损失函数然后与均方误差(MSE)之间的区别

最小二乘法作为损失函数:没有除以总样本数m
均方误差(MSE):除以总样本数m

 

 

 

 

 

你可能感兴趣的:(人工智能,高数,人工智能)