逻辑回归 sigmod作用 三种多分类方式 softmax回归 onevsone onevsall 极大似然估计

逻辑回归 sigmod作用 三种多分类方式 softmax回归 onevsone onevsall 极大似然估计_第1张图片

还有就是从线性到非线性

逻辑回归 sigmod作用 三种多分类方式 softmax回归 onevsone onevsall 极大似然估计_第2张图片

对于二分类任务,似然函数是  整合之后的函数的累乘,例如档y=0时,如果预测值越接近于0,则最后的值会更大。所以如下图所说的是要求最大值。

 

似然函数就是把一个batch中所有的样本数据的

整合前以及整合后(带入y的值),整合是为了方便展示

似然函数就是一个用来描述 斯塔 参数和x数据进行组合之后,求出的值与真实值之间误差大小的函数,一个关于 斯塔 的函数

下面的xi指的是多个不同个体的数据

其实就是不同个体数据x的情况下求出的y值,然后这个y值经过sigmod之后对应了一个概率值

逻辑回归 sigmod作用 三种多分类方式 softmax回归 onevsone onevsall 极大似然估计_第3张图片

 

逻辑回归 sigmod作用 三种多分类方式 softmax回归 onevsone onevsall 极大似然估计_第4张图片

https://blog.csdn.net/zhishengqianjun/article/details/75303820

逻辑回归 sigmod作用 三种多分类方式 softmax回归 onevsone onevsall 极大似然估计_第5张图片

推导公式出来之后发现 斯塔j 的偏导数只跟xij相关,其中xi指的是不同个体的数据,xij是指不同个体中第j个变量的值,对应就是跟 斯塔j 相乘的那个值

逻辑回归 sigmod作用 三种多分类方式 softmax回归 onevsone onevsall 极大似然估计_第6张图片

多分类情况下:也是将所有的值逻辑回归 sigmod作用 三种多分类方式 softmax回归 onevsone onevsall 极大似然估计_第7张图片

累乘起来,最后值越大越好(只看大括号里面的那部分)

逻辑回归 sigmod作用 三种多分类方式 softmax回归 onevsone onevsall 极大似然估计_第8张图片

逻辑回归和线性回归之间的差别:其实就是在线性回归的基础上加上了一个sigmod,将线性回归的值变成了概率值

 

另外关于多分类:

逻辑回归 sigmod作用 三种多分类方式 softmax回归 onevsone onevsall 极大似然估计_第9张图片

逻辑回归 sigmod作用 三种多分类方式 softmax回归 onevsone onevsall 极大似然估计_第10张图片

第三者就是softmax分类

 

 

最后附上别人讲的不错的文章参考

https://blog.csdn.net/programmer_wei/article/details/52072939

逻辑回归 sigmod作用 三种多分类方式 softmax回归 onevsone onevsall 极大似然估计_第11张图片

逻辑回归 sigmod作用 三种多分类方式 softmax回归 onevsone onevsall 极大似然估计_第12张图片

https://blog.csdn.net/wangran51/article/details/8892923

你可能感兴趣的:(人工智障理论)