吴恩达机器学习笔记26-样本和直观理解1(Examples and Intuitions I)

  从本质上讲,神经网络能够通过学习得出其自身的一系列特征。在普通的逻辑回归中,
我们被限制为使用数据中的原始特征?1, ?2, . . . , ??,我们虽然可以使用一些二项式项来组合
这些特征,但是我们仍然受到这些原始特征的限制。在神经网络中,原始特征只是输入层,
在我们上面三层的神经网络例子中,第三层也就是输出层做出的预测利用的是第二层的特
征,而非输入层中的原始特征,我们可以认为第二层中的特征是神经网络通过学习后自己得
出的一系列用于预测输出变量的新特征。
  神经网络中,单层神经元(无中间层)的计算可用来表示逻辑运算,比如逻辑与(AND)、
逻辑或(OR)。
  举例说明:逻辑与(AND);下图中左半部分是神经网络的设计与output 层表达式,右边
上部分是sigmod 函数,下半部分是真值表。
我们可以用这样的一个神经网络表示AND 函数:

吴恩达机器学习笔记26-样本和直观理解1(Examples and Intuitions I)_第1张图片

  其中?0 = −30, ?1 = 20, ?2 = 20 我们的输出函数ℎ? (?)即为:ℎ?(?) = ?(−30 + 20?1 +
20?2)
我们知道?(?)的图像是:

吴恩达机器学习笔记26-样本和直观理解1(Examples and Intuitions I)_第2张图片

吴恩达机器学习笔记26-样本和直观理解1(Examples and Intuitions I)_第3张图片

所以我们有:ℎ?(?) ≈ x1AND x2
所以我们的:
这就是AND 函数。
接下来再介绍一个OR 函数:

吴恩达机器学习笔记26-样本和直观理解1(Examples and Intuitions I)_第4张图片

OR 与AND 整体一样,区别只在于的取值不同。

转载于:https://www.cnblogs.com/sl0309/p/10410058.html

你可能感兴趣的:(人工智能,数据结构与算法)