人工智能的主要研究流派和成果(二)

       信息计算学派的研究成果,无论智能化计算机语言、框架理论还是专家系统,虽然都各自提出了知识的表达方式,却不能解决一个关键的问题,那就是知识如何获取。在这一点上,神经网络学派恰好填补了空白,尤其在互联网时代,在信息技术积攒的海量数据面前,如何挖掘这一阿里巴巴式的洞藏宝藏,具备学习能力的人工神经网络便大显身手了,加上其学习能力一再提升,当深度学习横空出世,阿尔法狗战胜世界围棋冠军柯洁时,神经网络学派已是后来居上,成了人工智能的主力军

        神经网络学派着眼于对大脑神经系统工作方式的探索和模拟就发展历史来看,可以分为四个阶段:启蒙期、低潮期、复兴期和兴盛期。

        启蒙期:1890年代至1969年,标志性事件有:1890年代,威廉.詹姆斯第一描述了神经细胞的工作原理,1943年,麦卡洛克和皮特斯提出了M-P神经元模型,第一次用数学方式描述了神经元的工作原理,成为人工神经网络的起点,1949年,唐纳德·赫布探究了人类的学习规则,其学习假设是重复激活使相关链接权值得到加强。1957年罗森布拉特提出了感知器及其收敛定理。不久威德罗和特德·霍夫提出Widrow-Hoff神经网络算法,第一次给出了一个具体的学习算法LMS,其实质是基于均方误差的线性学习准则。

        低潮期:1969年,明斯基出版《感知器》,指出感知器存在致命缺陷,一是只能用于线性问题的求解,二是感知器理论上还不能证明其具备多层意义。由此,人工神经网络从此陷入低潮,一直持续到80年代初期。虽然是低潮期,但这一阶段并非空白,仍有科荷伦的自组织网络、格罗斯伯格的自适应共振理论和福岛邦彦的新认知机相继提出。

       复兴期:从1982年霍普菲尔德提出hopfield神经网络模型,1986年罗森布拉特和辛顿提出BP神经网络,到1987年国际第一届神经网络会议在美召开,有上千人与会,标志着人工神经网络的全面复兴。

       兴盛期:可以把第一届神经网络会议当做兴盛期的标志事件,但我更愿意将2006年辛顿和萨拉霍蒂诺发表的关于深度学习的论文作为标志事件,因为深度学习经过阿尔法狗战胜围棋冠军的推广,已经深入人心。

这一阶段人工神经网络一路高歌猛进,模型上,从hopfield神经网络、普尔兹曼机、受限普尔兹曼机到积卷神经网络,学习算法上,从前馈误差反向传播、反馈迭代算法、梯度推进算法、模拟退火算法到CD学习算法,应用上,从大数据分析、图像压缩、图像识别、无人驾驶到棋类游戏,神经网络和深度学习俨然成为人工智能的代名词。

       人工神经网络的应用虽然无孔不入,但仍有局限性。

        一是人工神经网络来自于脑神经科学,但仍然是基于有限认识上的行为模仿,其实质上是基于不同类型的有向图上的数学优化算法,并且不是精确的求解,而是通过一定的样本的反复学习训练,形成一定的权值记忆,结合神经网络模型的收敛性,以期达到一个近似的统计学意义上的最佳求解,虽然很管用,但更像是一种数学游戏,鉴于脑科学认识的局限性,仍然谈不上是人类智慧复制。

       二是人工神经网络仍然不存在一个放之四海皆准的通用模型,需要根据具体的问题,由专家运用智慧去构造,虽然研究阿尔法狗的戴密斯·哈萨比斯目前正在致力于通用神经网络模型的研究,但还没有公之于众的结果。

       三是人工神经网络虽然具备多层,仍然是有限神经元的连接,仍不具备人脑亿万神经元的连接规模。

       纵然如此,这有限的连接,就能制造出让人瞠目结舌的智能,一旦获得进一步的突破,会是怎样的一个局面,值得人们期待和担忧。

 

你可能感兴趣的:(神经网络,人工智能,深度学习)