人工神经网络:神经元与感知器

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录

  • 前言
  • 一、今日所学
  • 二、今日重点


前言

1943 年,美国芝加哥大学的神经科学家沃伦·麦卡洛克和他的助手沃尔特·皮茨发表了论文《神经活动中思想内在性的逻辑演算》(A Logical Calculus of Ideas Immanent in Nervous Activity),系统阐释了他们的想法:一个极度简化的机械大脑。麦卡洛克和皮茨首先将神经元的状态二值化,再通过复杂的方式衔接不同的神经元,从而实现对抽象信息的逻辑运算。正是这篇论文宣告了人工神经网络的呱呱坠地,它传奇的故事自此徐徐展开。


一、今日所学

1,1943 年,美国芝加哥大学的神经科学家沃伦·麦卡洛克和他的助手沃尔特·皮茨发表了论文《神经活动中思想内在性的逻辑演算》(A Logical Calculus of Ideas Immanent in Nervous Activity),系统阐释了他们的想法:一个极度简化的机械大脑;
2,在 MP 神经元中,麦卡洛克和皮茨将输入和输出都限定为二进制信号,使用的传递函数则是不连续的符号函数;
3,从人工神经网络的角度来看,赫布理论的意义在于给出了改变模型神经元之间权重的准则。如果两个神经元同时被激活,它们的权重就应该增加;而如果它们分别被激活,两者之间的权重就应该降低。如果两个结点倾向于同时输出相同的结果,两者就应具有较强的正值权重;反过来,倾向于输出相反结果的结点之间则应具有较强的负值权重。
4,感知器并不是真实的器件,而是一种二分类的监督学习算法,能够决定由向量表示的输入是否属于某个特定类别;
5,根据 y_j(t) 和样本 j 的给定输出结果 d_j,按以下规则更新权重向量;这是学习算法中最重要的核心步骤;
6,在执行二分类问题时,感知器以所有误分类点到超平面的总距离作为损失函数,用随机梯度下降法不断使损失函数下降,直到得到正确的分类结果;
7,虽然感知器的形式简洁优雅,但它的应用范围也相当有限:只能解决线性分类问题;
8,明斯基和罗森布拉特之间的恩冤;
名词:MP 神经元,传递函数,学习机制,赫布理论;感知器(perceptron)”模型;非参数化特性,自适应性,

二、今日重点

1,人工神经网络的神经元用传递函数对输入的线性加权进行非线性处理以产生输出;
2,感知器是一种二分类的监督学习算法,通过自适应调整权重解决线性分类问题;
3,感知器的神经元之间通过权重传递信息,权重的变化根据误差来进行调节;
4,感知器不能解决以异或为代表的线性不可分问题。

你可能感兴趣的:(算法,计算机视觉,机器学习)