从视觉上判断是线性可分的,使用单层神经网络;
输入层设置两个输入单元,表示经纬度:=1,2
输出层设置一个单元,表示地盘所属阵营:
=+
a=Logistic(z)
权重参数为: =(1,2)^ , =()
损失函数为交叉熵损失函数,反向传播公式为:
回忆一下前面学习过的线性回归,通过用均方差函数的误差反向传播的方法,不断矫正拟合直线的斜率和截距,因为均方差函数能够准确地反映出当前的拟合程度。
线性分类与线性回归相似的地方是,两者都需要划出那条“直线”来,但是不同的地方也很明显:线性回归要求用直线来拟合所有样本,使得各个样本到这条直线的距离尽可能最短;而线性分类则要求用直线来分割所有样本,使得正例样本和负例样本尽可能分布在直线两侧。
代数方式:通过一个分类函数计算所有样本点在经过线性变换后的概率值,使得正例样本的概率大于0.5,而负例样本的概率小于0.5。
平面上有三个点,分成两类,绿色方块为正类,红色三角为负类。各个点的坐标为:,,A(2,4),B(2,1),C(3,3)。
假设神经网络第一次使用 L1 做为分类线,此时:w1=−1,w2=2,b=−2,我们来计算一下三个点的情况。
我们知道当 z>0 时,Logistic(z)>0.5 为正例,反之为负例,所以我们只需要看三个点的 z 值是大于0还是小于0就可以了,不用再计算 Logistic 函数值。
此时 C 点的损失函数值为(核心:注意 C 的标签值 y=0):
可知 A,B点处于正确的分类区,而 C 点处于错误的分类区
可见,对于分类正确的 A,B 点来说,其损失函数值比 C 点要小很多,所以 C 点的反向传播的力度就大。