吴恩达机器学习多分类(Multiclass Classification)10

Softmax回归模型

1.逻辑回归与Softmax回归,结果值的计算比较

吴恩达机器学习多分类(Multiclass Classification)10_第1张图片

2.逻辑回归与Softmax回归,代价函数(cost funciont)的比较

吴恩达机器学习多分类(Multiclass Classification)10_第2张图片
损失函数图片.png
3.神经网络中Softmax的输出
Softmax和其他函数的区别是它能够一次性算出a_1到a_10的所有概率,而其他函数一次只能算一个a_j
吴恩达机器学习多分类(Multiclass Classification)10_第3张图片

3.数字的舍入错误

通过使用下面的表达式来表示损失函数,它为TensorFlow提供了更多的灵活性,如何计算这个以及它是否要显式地计算a.
吴恩达机器学习多分类(Multiclass Classification)10_第4张图片

这里给出了可以用于此操作的代码,它的作用就是:设置输出层,只使用线性激活函数,把激活函数图片.png以及交叉熵损失(cross entropy loss)都封装进了这里特殊的损失函数里,这就是from_logits=True在TensorFlow的作用,如果你想知道logits是什么,它基本就是这个数字z,TensorFlow会把z作为中间值来计算,但它可以重新整理这些项图片.png,使计算更精确。可以让TensorFlow的数字舍入误差小一点。
图片.png
更加精确
线性回归
吴恩达机器学习多分类(Multiclass Classification)10_第5张图片
逻辑回归
总结:把本在模型中的softmax激活函数放到cost函数中
目的:展开运算,让计算机自行优化,提高精度
吴恩达机器学习多分类(Multiclass Classification)10_第6张图片

你可能感兴趣的:(机器学习)