吴恩达Coursera-深度学习deeplearning 提炼笔记--神经网络基础-第一章

吴恩达Coursera-深度学习deeplearning 提炼笔记–神经网络基础

声明

本文为学习吴恩达老师所做的笔记,电脑搭载的环境为opencv-python3.7+pycharm+keras+tensorflow-gpu+cudn+cudnn,在课程中需要用到的文件会以链接形式给出,文中有代码。

Softmax函数

1.为什么学softmax函数

softmax函数的作用是将输入的数值映射到0-1区间范围内,且归一化之后总和为1。尤其在多分类的问题中应用广泛,因为多分类的概率之和为1。softmax函数由两个单词组成,max代表最大值,非黑即白,用一段伪代码表示就是

if a>b
return a;
else
return b;

在多分类任务中,我们并不希望输出每次都是0或1这样确定的变量,我们更希望输出是每个分类被取到的概率。换句话说,我们希望分值大的那一项经常被取到,而分值小的那一项也有概率被取到,这就是soft的意思,意即柔软的。最后我们输出的是每个分类被取到的概率。

2.softmax函数的定义

首先给一个图,这个图诠释了softmax函数是怎么计算的。
吴恩达Coursera-深度学习deeplearning 提炼笔记--神经网络基础-第一章_第1张图片(图片来自网络)

假设有一个数组 H H H,数组包含 n n n个元素, H i H_i Hi代表该数组中的第 i i i个元素,那么该元素的softmax数值为:
S i S_i Si= e i ∑ i = 1 n e i \frac{e^i}{\sum_{i=1}^{n}e^i} i=1neiei

该元素的softmax值,就是该元素的指数值与所有元素指数的和的比值。

为什么要这么定义呢?
1.因为softmax设计的初衷,是希望特征对概率的影响是乘性的。
2.多类分类问题的目标函数常常选为cross-entropy(交叉熵)。即
在这里插入图片描述
tk表示真实值,其中目标类的tk为1,其余类的tk为0,p为求出的softmax值。

在神经网络模型中(最简单的逻辑回归可以看出一个没有隐含层的神经网络),输出层第i个神经元的输入为ai=在这里插入图片描述
神经网络是用error back-propagation训练的,这个过程有一个很关键的量是在这里插入图片描述
这个量是损失函数(交叉熵)跟输入值的导数关系,通过这个关系可以求得损失函数L等于0时的输入ai值。损失函数(交叉熵)中包含softmax值,因此softmax能对输入值产生影响,后面我会对softmax函数与反向传播的关系进行推导和解释。

3.softmax函数与反向传播的关系

L=LOSS=损失函数,这里用的损失函数为交叉熵

其中目标类:

其余类:

这里我们取第一个,因此公式变为:

softmax函数值:

由前面的softmax函数定义可得:


代入y值得:




推导结果:

结果显示,我们要求得反向更新的梯度,只需要求出他的softmax值然后减一即可,将求梯度问题转化成求softmax值问题。
softmax阐述到此为止, 后续有需要会补充
引用:https://blog.csdn.net/bitcarmanlee/article/details/82320853

回归问题

大牛在这里用的例子是房价跟房屋面积的对应关系,输入房屋面积,输出房价。大牛将这个例子称为回归问题,同时给出了回归问题的定义:我们输入一个数据集(有监督)给算法,我们想要预测连续的数值输出,这个输出可以是离散值也可以是连续值。

给出李航博士《统计学习方法一文》中对回归问题和分类问题的定义:

输入变量和输出变量都为连续变量的预测问题为回归问题
输出变量为有限个离散变量的预测问题为分类问题
输入变量和输出变量均为变量序列的预测问题为标注问题

下面谈一下分类与回归的联系与区别

分类模型与回归模型的本质是一样的,分类模型可以将回归的输出离散化,回归模型可以将分类模型的输出连续化。下面举几个例子并详细说明其中的区别:

1.Logistic Regression 和Linear Regression

1.1 Linear Regression:

线性回归,该模型的输出是一个标量wx+b,类似于神经元里面的激活函数,这个值是连续值,可以用来处理回归问题

1.2Logistic Regression:

逻辑回归,该模型把上述得到的wx+b通过sigmod函数归一化至(0,1)范围内,并划分一个阈值,高于阈值的分为一类,低于阈值的分为一类,可以用来处理二分类问题。当然,在面对多分类问题时,归一化后将数值通过softmax函数,得到不同取值的W对应的WX+b所对应的概率,这样可以处理多分类问题。注意,逻辑回归不是回归而是分类,他只是用了回归的算法来处理分类问题,逻辑回归比线性回归多了一个阈值判断,这是与线性回归的最重要区别,而且逻辑回归输出的概率也可以称为决策边界,更能诠释Logistic Regression的中文名是大牛周志华老师说的对数几率回归,因为logistic回归中用到了sigmod函数

2.support vector regression和support vector regression:

2.1support vector regression

中文名,支持向量回归,简称SVR。SVR的输出是一个wx+b的连续值,即某个样本点到分类面的距离,该距离是一个连续值,所以SVR是回归模型

2.2support vector machine

中文名,支持向量机,简称SVM。SVM将输出的wx+b作用在sign()函数上,距离为正的样本点为一类,为负的样本点为另一类,所以SVM是分类模型

sign函数:

吴恩达Coursera-深度学习deeplearning 提炼笔记--神经网络基础-第一章_第2张图片

3.Naive Bayes 用于分类和回归:

朴素贝叶斯

1.用于分类:

y是离散的类别,所以得到离散的p(y|x),给定x,输出每个类的概率。

2.用于回归:

对上面的离散p(y|x)求期望ΣyP(y|x),就得到连续值,但因为此时y本身是连续的值,所以对地道的做法是,得到连续的概率密度函数p(y|x),然后再对y求期望

4.前馈神经网络(如CNN系列)用于分类和回归:

1.用于回归:

最后一层有m个神经元,每个神经元输出一个标量,m个神经元的输出可以看做一个向量v,现将该层的全部神经元看成是一个神经元,则这个神经元的输出是wv+b,是一个连续值,可以处理回归问题,其实这个跟linear regression线性回归的性质是一样的。线性回归可以看成是一个没有隐含层的神经网络,所以从数据的流动过程来看,在处理回归问题上他俩很相似。

2.用于N分类:

现在这m个神经元最后连接到N个神经元上,这N组神经元的w值各不相同,所以就有N组W值不同的wv+b,同理可以用softmax归一化到(0,1)范围内,然后变成N个类上的概率(补充一下,如果不用softmax而是在每个wv+b后加一个sigmod函数,则变成多标签问题,跟多分类的区别在于,样本可以被打上多个标签)

5.循环神经网络(如RNN系列)用于分类与回归:

与CNN类似,输出层的值为wx+b可以看成分类也可以看成回归,只不过区别在于,RNN的输出跟时间有关,即输出的是 {y(t), y(t+1),…}序列,

定义

监督学习与非监督学习

定义

监督学习:我们给算法一个数据集,数据集中包含正常的答案,这就是监督学习。算法的目的是通过学习这个具有正确答案的数据集,给出更多的正确答案。(预测)
无监督学习:我们得到一个数据集,或者我们有一个数据集,但是数据集里没任何标签,也不知道数据集里的点代表着什么,无监督学习可以判断数据集里元素的类别,并把结构相同的元素划成一类(聚类算法)。聚类算法只是无监督学习的一种,大牛在这里介绍了一个鸡尾酒会算法,其实我感觉聚类算法代表了一部分(占比或很大)的无监督学习思想,就是不通过人类干涉,让机器自己去判断哪些元素是相同类的,让机器自己去寻找元素间的联系,这些元素对于人类来说甚至是陌生的,数据量极大无法人工处理的,也无法人工给予标签的。大牛在这里用鸡尾酒会算法分出了同一个音频里的两种不同声音,其中的根据就是一个人说的每句话之间语调是有规律的(声音频率,大小,每个字之间的间隔,口头禅等),无监督学习可以自动将不同人说的话提取出来。

#欢迎使用Markdown编辑器

你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。

新的改变

我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客:

  1. 全新的界面设计 ,将会带来全新的写作体验;
  2. 在创作中心设置你喜爱的代码高亮样式,Markdown 将代码片显示选择的高亮样式 进行展示;
  3. 增加了 图片拖拽 功能,你可以将本地的图片直接拖拽到编辑区域直接展示;
  4. 全新的 KaTeX数学公式 语法;
  5. 增加了支持甘特图的mermaid语法1 功能;
  6. 增加了 多屏幕编辑 Markdown文章功能;
  7. 增加了 焦点写作模式、预览模式、简洁写作模式、左右区域同步滚轮设置 等功能,功能按钮位于编辑区域与预览区域中间;
  8. 增加了 检查列表 功能。

功能快捷键

撤销:Ctrl/Command + Z
重做:Ctrl/Command + Y
加粗:Ctrl/Command + B
斜体:Ctrl/Command + I
标题:Ctrl/Command + Shift + H
无序列表:Ctrl/Command + Shift + U
有序列表:Ctrl/Command + Shift + O
检查列表:Ctrl/Command + Shift + C
插入代码:Ctrl/Command + Shift + K
插入链接:Ctrl/Command + Shift + L
插入图片:Ctrl/Command + Shift + G
查找:Ctrl/Command + F
替换:Ctrl/Command + G

合理的创建标题,有助于目录的生成

直接输入1次#,并按下space后,将生成1级标题。
输入2次#,并按下space后,将生成2级标题。
以此类推,我们支持6级标题。有助于使用TOC语法后生成一个完美的目录。

如何改变文本的样式

强调文本 强调文本

加粗文本 加粗文本

标记文本

删除文本

引用文本

H2O is是液体。

210 运算结果是 1024.

插入链接与图片

链接: link.

图片: Alt

带尺寸的图片: Alt

居中的图片: Alt

居中并且带尺寸的图片: Alt

当然,我们为了让用户更加便捷,我们增加了图片拖拽功能。

如何插入一段漂亮的代码片

去博客设置页面,选择一款你喜欢的代码片高亮样式,下面展示同样高亮的 代码片.

// An highlighted block
var foo = 'bar';

生成一个适合你的列表

  • 项目
    • 项目
      • 项目
  1. 项目1
  2. 项目2
  3. 项目3
  • 计划任务
  • 完成任务

创建一个表格

一个简单的表格是这么创建的:

项目 Value
电脑 $1600
手机 $12
导管 $1

设定内容居中、居左、在这里插入代码片居右

使用:---------:居中
使用:----------居左
使用----------:居右

第一列 第二列 第三列
第一列文本居中 第二列文本居右 第三列文本居左

SmartyPants

SmartyPants将ASCII标点字符转换为“智能”印刷标点HTML实体。例如:

TYPE ASCII HTML
Single backticks 'Isn't this fun?' ‘Isn’t this fun?’
Quotes "Isn't this fun?" “Isn’t this fun?”
Dashes -- is en-dash, --- is em-dash – is en-dash, — is em-dash

创建一个自定义列表

Markdown
Text-to- HTML conversion tool
Authors
John
Luke

如何创建一个注脚

一个具有注脚的文本。2

注释也是必不可少的

Markdown将文本转换为 HTML

KaTeX数学公式

您可以使用渲染LaTeX数学表达式 KaTeX:

Gamma公式展示 Γ ( n ) = ( n − 1 ) ! ∀ n ∈ N \Gamma(n) = (n-1)!\quad\forall n\in\mathbb N Γ(n)=(n1)!nN 是通过欧拉积分

Γ ( z ) = ∫ 0 ∞ t z − 1 e − t d t   . \Gamma(z) = \int_0^\infty t^{z-1}e^{-t}dt\,. Γ(z)=0tz1etdt.

你可以找到更多关于的信息 LaTeX 数学表达式here.

新的甘特图功能,丰富你的文章

Mon 06 Mon 13 Mon 20 已完成 进行中 计划一 计划二 现有任务 Adding GANTT diagram functionality to mermaid
  • 关于 甘特图 语法,参考 这儿,

UML 图表

可以使用UML图表进行渲染。 Mermaid. 例如下面产生的一个序列图::

张三 李四 王五 你好!李四, 最近怎么样? 你最近怎么样,王五? 我很好,谢谢! 我很好,谢谢! 李四想了很长时间, 文字太长了 不适合放在一行. 打量着王五... 很好... 王五, 你怎么样? 张三 李四 王五

这将产生一个流程图。:

链接
长方形
圆角长方形
菱形
  • 关于 Mermaid 语法,参考 这儿,

FLowchart流程图

我们依旧会支持flowchart的流程图:

Created with Raphaël 2.2.0 开始 我的操作 确认? 结束 yes no
  • 关于 Flowchart流程图 语法,参考 这儿.

导出与导入

导出

如果你想尝试使用此编辑器, 你可以在此篇文章任意编辑。当你完成了一篇文章的写作, 在上方工具栏找到 文章导出 ,生成一个.md文件或者.html文件进行本地保存。

导入

如果你想加载一篇你写过的.md文件,在上方工具栏可以选择导入功能进行对应扩展名的文件导入,
继续你的创作。


  1. mermaid语法说明 ↩︎

  2. 注脚的解释 ↩︎

你可能感兴趣的:(感想,吴恩达,深度学习,deeplearning,神经网络,学习笔记)