吴恩达Coursera-深度学习deeplearning 提炼笔记–神经网络基础
本文为学习吴恩达老师所做的笔记,电脑搭载的环境为opencv-python3.7+pycharm+keras+tensorflow-gpu+cudn+cudnn,在课程中需要用到的文件会以链接形式给出,文中有代码。
softmax函数的作用是将输入的数值映射到0-1区间范围内,且归一化之后总和为1。尤其在多分类的问题中应用广泛,因为多分类的概率之和为1。softmax函数由两个单词组成,max代表最大值,非黑即白,用一段伪代码表示就是
if a>b
return a;
else
return b;
在多分类任务中,我们并不希望输出每次都是0或1这样确定的变量,我们更希望输出是每个分类被取到的概率。换句话说,我们希望分值大的那一项经常被取到,而分值小的那一项也有概率被取到,这就是soft的意思,意即柔软的。最后我们输出的是每个分类被取到的概率。
首先给一个图,这个图诠释了softmax函数是怎么计算的。
(图片来自网络)
假设有一个数组 H H H,数组包含 n n n个元素, H i H_i Hi代表该数组中的第 i i i个元素,那么该元素的softmax数值为:
S i S_i Si= e i ∑ i = 1 n e i \frac{e^i}{\sum_{i=1}^{n}e^i} ∑i=1neiei
该元素的softmax值,就是该元素的指数值与所有元素指数的和的比值。
为什么要这么定义呢?
1.因为softmax设计的初衷,是希望特征对概率的影响是乘性的。
2.多类分类问题的目标函数常常选为cross-entropy(交叉熵)。即
tk表示真实值,其中目标类的tk为1,其余类的tk为0,p为求出的softmax值。
在神经网络模型中(最简单的逻辑回归可以看出一个没有隐含层的神经网络),输出层第i个神经元的输入为ai=
神经网络是用error back-propagation训练的,这个过程有一个很关键的量是
这个量是损失函数(交叉熵)跟输入值的导数关系,通过这个关系可以求得损失函数L等于0时的输入ai值。损失函数(交叉熵)中包含softmax值,因此softmax能对输入值产生影响,后面我会对softmax函数与反向传播的关系进行推导和解释。
L=LOSS=损失函数,这里用的损失函数为交叉熵
其中目标类:
其余类:
这里我们取第一个,因此公式变为:
softmax函数值:
由前面的softmax函数定义可得:
代入y值得:
推导结果:
结果显示,我们要求得反向更新的梯度,只需要求出他的softmax值然后减一即可,将求梯度问题转化成求softmax值问题。
softmax阐述到此为止, 后续有需要会补充
引用:https://blog.csdn.net/bitcarmanlee/article/details/82320853
大牛在这里用的例子是房价跟房屋面积的对应关系,输入房屋面积,输出房价。大牛将这个例子称为回归问题,同时给出了回归问题的定义:我们输入一个数据集(有监督)给算法,我们想要预测连续的数值输出,这个输出可以是离散值也可以是连续值。
输入变量和输出变量都为连续变量的预测问题为回归问题;
输出变量为有限个离散变量的预测问题为分类问题;
输入变量和输出变量均为变量序列的预测问题为标注问题;
分类模型与回归模型的本质是一样的,分类模型可以将回归的输出离散化,回归模型可以将分类模型的输出连续化。下面举几个例子并详细说明其中的区别:
线性回归,该模型的输出是一个标量wx+b,类似于神经元里面的激活函数,这个值是连续值,可以用来处理回归问题。
逻辑回归,该模型把上述得到的wx+b通过sigmod函数归一化至(0,1)范围内,并划分一个阈值,高于阈值的分为一类,低于阈值的分为一类,可以用来处理二分类问题。当然,在面对多分类问题时,归一化后将数值通过softmax函数,得到不同取值的W对应的WX+b所对应的概率,这样可以处理多分类问题。注意,逻辑回归不是回归而是分类,他只是用了回归的算法来处理分类问题,逻辑回归比线性回归多了一个阈值判断,这是与线性回归的最重要区别,而且逻辑回归输出的概率也可以称为决策边界,更能诠释Logistic Regression的中文名是大牛周志华老师说的对数几率回归,因为logistic回归中用到了sigmod函数
中文名,支持向量回归,简称SVR。SVR的输出是一个wx+b的连续值,即某个样本点到分类面的距离,该距离是一个连续值,所以SVR是回归模型。
中文名,支持向量机,简称SVM。SVM将输出的wx+b作用在sign()函数上,距离为正的样本点为一类,为负的样本点为另一类,所以SVM是分类模型。
朴素贝叶斯
y是离散的类别,所以得到离散的p(y|x),给定x,输出每个类的概率。
对上面的离散p(y|x)求期望ΣyP(y|x),就得到连续值,但因为此时y本身是连续的值,所以对地道的做法是,得到连续的概率密度函数p(y|x),然后再对y求期望
最后一层有m个神经元,每个神经元输出一个标量,m个神经元的输出可以看做一个向量v,现将该层的全部神经元看成是一个神经元,则这个神经元的输出是wv+b,是一个连续值,可以处理回归问题,其实这个跟linear regression线性回归的性质是一样的。线性回归可以看成是一个没有隐含层的神经网络,所以从数据的流动过程来看,在处理回归问题上他俩很相似。
现在这m个神经元最后连接到N个神经元上,这N组神经元的w值各不相同,所以就有N组W值不同的wv+b,同理可以用softmax归一化到(0,1)范围内,然后变成N个类上的概率(补充一下,如果不用softmax而是在每个wv+b后加一个sigmod函数,则变成多标签问题,跟多分类的区别在于,样本可以被打上多个标签)
与CNN类似,输出层的值为wx+b可以看成分类也可以看成回归,只不过区别在于,RNN的输出跟时间有关,即输出的是 {y(t), y(t+1),…}序列,
监督学习:我们给算法一个数据集,数据集中包含正常的答案,这就是监督学习。算法的目的是通过学习这个具有正确答案的数据集,给出更多的正确答案。(预测)
无监督学习:我们得到一个数据集,或者我们有一个数据集,但是数据集里没任何标签,也不知道数据集里的点代表着什么,无监督学习可以判断数据集里元素的类别,并把结构相同的元素划成一类(聚类算法)。聚类算法只是无监督学习的一种,大牛在这里介绍了一个鸡尾酒会算法,其实我感觉聚类算法代表了一部分(占比或很大)的无监督学习思想,就是不通过人类干涉,让机器自己去判断哪些元素是相同类的,让机器自己去寻找元素间的联系,这些元素对于人类来说甚至是陌生的,数据量极大无法人工处理的,也无法人工给予标签的。大牛在这里用鸡尾酒会算法分出了同一个音频里的两种不同声音,其中的根据就是一个人说的每句话之间语调是有规律的(声音频率,大小,每个字之间的间隔,口头禅等),无监督学习可以自动将不同人说的话提取出来。
#欢迎使用Markdown编辑器
你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。
我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客:
撤销:Ctrl/Command + Z
重做:Ctrl/Command + Y
加粗:Ctrl/Command + B
斜体:Ctrl/Command + I
标题:Ctrl/Command + Shift + H
无序列表:Ctrl/Command + Shift + U
有序列表:Ctrl/Command + Shift + O
检查列表:Ctrl/Command + Shift + C
插入代码:Ctrl/Command + Shift + K
插入链接:Ctrl/Command + Shift + L
插入图片:Ctrl/Command + Shift + G
查找:Ctrl/Command + F
替换:Ctrl/Command + G
直接输入1次#,并按下space后,将生成1级标题。
输入2次#,并按下space后,将生成2级标题。
以此类推,我们支持6级标题。有助于使用TOC
语法后生成一个完美的目录。
强调文本 强调文本
加粗文本 加粗文本
标记文本
删除文本
引用文本
H2O is是液体。
210 运算结果是 1024.
链接: link.
图片:
带尺寸的图片:
居中的图片:
居中并且带尺寸的图片:
当然,我们为了让用户更加便捷,我们增加了图片拖拽功能。
去博客设置页面,选择一款你喜欢的代码片高亮样式,下面展示同样高亮的 代码片
.
// An highlighted block
var foo = 'bar';
一个简单的表格是这么创建的:
项目 | Value |
---|---|
电脑 | $1600 |
手机 | $12 |
导管 | $1 |
使用:---------:
居中
使用:----------
居左
使用----------:
居右
第一列 | 第二列 | 第三列 |
---|---|---|
第一列文本居中 | 第二列文本居右 | 第三列文本居左 |
SmartyPants将ASCII标点字符转换为“智能”印刷标点HTML实体。例如:
TYPE | ASCII | HTML |
---|---|---|
Single backticks | 'Isn't this fun?' |
‘Isn’t this fun?’ |
Quotes | "Isn't this fun?" |
“Isn’t this fun?” |
Dashes | -- is en-dash, --- is em-dash |
– is en-dash, — is em-dash |
一个具有注脚的文本。2
Markdown将文本转换为 HTML。
您可以使用渲染LaTeX数学表达式 KaTeX:
Gamma公式展示 Γ ( n ) = ( n − 1 ) ! ∀ n ∈ N \Gamma(n) = (n-1)!\quad\forall n\in\mathbb N Γ(n)=(n−1)!∀n∈N 是通过欧拉积分
Γ ( z ) = ∫ 0 ∞ t z − 1 e − t d t . \Gamma(z) = \int_0^\infty t^{z-1}e^{-t}dt\,. Γ(z)=∫0∞tz−1e−tdt.
你可以找到更多关于的信息 LaTeX 数学表达式here.
可以使用UML图表进行渲染。 Mermaid. 例如下面产生的一个序列图::
这将产生一个流程图。:
我们依旧会支持flowchart的流程图:
如果你想尝试使用此编辑器, 你可以在此篇文章任意编辑。当你完成了一篇文章的写作, 在上方工具栏找到 文章导出 ,生成一个.md文件或者.html文件进行本地保存。
如果你想加载一篇你写过的.md文件,在上方工具栏可以选择导入功能进行对应扩展名的文件导入,
继续你的创作。
mermaid语法说明 ↩︎
注脚的解释 ↩︎