为什么说担心 AI 抢人类饭碗纯粹是多余?

640?wx_fmt=gif

最近人工智能的话题非常火爆。AI在医疗诊断、新化合物合成、罪犯识别等方面得到了广泛应用,还能驾驶汽车,甚至能创造出艺术品。

有时似乎感觉没有什么AI做不到的,似乎每个人都要失业,只要看着AI替我们做好一切就行了。

为了理解AI技术的起源,这篇文章将会带你浏览AI的历史。它还会介绍AI芯片的现状,以及为了让AI能真正影响到人类生活,创造出高级驾驶辅助系统(ADAS)和自动驾驶汽车等,我们还需要做些什么。

640?wx_fmt=jpeg

随着AI的发展,它越来越偏向特定的技术,即机器学习,这项技术依赖于经验学习来做决策,而不是靠程序做决策。而机器学习为深度学习打下了基础,后者的算法需要对数据的进一步理解。


640?wx_fmt=png

AI的技术之源


“人工智能”这个词由科学家John McCarthy、Claude Shannon和Marvin Minsky于1956年,在Dartmouth会议上创造。五十年代末,Arthur Samuel将“机器学习”这个词定义为能够从错误中学习的程序,这种程序甚至能在下棋方面比它的创造者更优秀。

这是计算机技术发展的黄金时期,许多研究人员都认为AI能很快“解决”。科学家们对基于人类大脑功能的计算做了很多研究,看它们是否能解决真实世界中的问题,从而创造了“神经网络”的概念。

1970年,Marvin Minsky告诉《Life》杂志,“只需三到八年的时间,我们就能创造出拥有普通人类智能的机器”。

640?wx_fmt=jpeg

到了二十世纪八十年代,AI走出实验室进入商业领域,创造了一段投资的神话。当AI技术的泡沫在八十世纪末破碎时,AI回到了学术界,科学家们继续研究它的潜力。商业圈的观察人士称AI过早到来的技术,或者未来的技术,等等不一而足。这段相当长的时期被称为“AI的寒冬,但随后AI在商业圈又得到了迅猛发展。

1986年,Geoffrey HInton和他的同事们发表了里程碑式的论文,描述了名为“反向传播”的算法,这个算法可以用于大幅度改善多层“深度”神经网络的性能。

1989年,贝尔实验室的Yann LeCun和其他研究人员演示了一项新技术在真实世界中的应用,即训练神经网络来识别手写的邮政编码。他们只花了三天时间就训练了一个深度卷积神经网络(CNN)。

快进至2009年,斯坦福大学的Rajat Raina、Anand Madhavan和Andrew Ng发表了一篇论文,讨论了利用计算性能远超现代多核CPU的GPU提高深度学习速度的方法。AI的盛宴就此开始了。


640?wx_fmt=png

真正的AI芯片的任务


为什么今天AI的话题无处不在?一系列的关键因素最终都聚集在一点上:人们相信科技的巨大进步能够解决越来越重要的真实世界问题。

有了今天互联网提供的基础设施,全世界的研究人员都能够使用强大的计算能力、海量的数据和高速的通讯,从而创造出新的算法和解决方案。

例如,汽车工业已经表示愿意在AI科技方面投入巨大的研发资源,因为机器学习可能解决诸如自动驾驶等高度复杂的任务。

AI芯片设计的一个主要问题就是集成。这里讨论的是超大规模的定制系统芯片(SoC),其中的深度学习由多种硬件加速器实现。设计AI芯片是非常困难的,特别是在汽车工业苛刻的安全和可靠性的要求下。

为什么说担心 AI 抢人类饭碗纯粹是多余?_第1张图片

但是,AI芯片依然只是芯片,或许再加上一些处理器、内存、I/O和互联技术方面的新技术而已。像GoogleTesla等芯片设计方面的新手,以及AIMotiveHorizon RoboticsAI芯片创业公司,都拥有丰富的深度学习的计算复杂度方面的知识,但他们可能会面临尖端系统芯片设计方面的巨大挑战。

可配置的、互联的知识产权的作用非常重要,它能让这些芯片界的新手迅速制造出可以使用的芯片。

以带有深度学习加速器的AI芯片为例,这种芯片的使用场景如汽车前置摄像头,可以进行图像分析,对路边的物体进行检测和分类。每个AI芯片都有独特的内存访问方式,以保证最大的带宽。

芯片内的数据流必须经过优化,以保证最大的带宽,才能在必要的时候满足性能需求,但又要尽可能在芯片面积、成本和能量消耗方面进行优化。每个连接必须为高层的AI算法进行优化。

更麻烦的是,新的AI算法每天都在涌现。从某些方面来说,现在的深度学习就像香蕉一样,没人想要烂香蕉,也没人想要AI芯片中的旧算法。对于这些尖端科技产品来说,上市时间比许多其他半导体产品更为重要。


640?wx_fmt=png

AI的未来


尽管深度学习和神经网络快速地推动了人工智能技术的发展,许多研究人员依然相信,要达到最终的AI目标,我们依然需要更多的不同方法。大多数AI芯片的设计思路依然是LeCun和Hinton等人在十几年前发表的思想的改进版本,但没有任何理由相信,这条路上的指数级增长能够让AI像人类那样思考。

我们今天所知的AI并不能把一个任务上获得的深度学习经验推广到其他新的、不同的任务上。而且,神经网络并不能很好地吸收以前的知识,或吸收“上下”或者“孩子有父母”这种简单的规则。

640?wx_fmt=jpeg

最后,基于神经网络的AI需要大量的数据进行学习,而人类只需一次触摸火炉的经验就能学会不再碰火炉。现在依然不清楚怎样才能将现在的AI技术应用到没有大量数据的问题上。

尽管按照目前人类的标准来看,AI芯片并没有智能,但它们依然很聪明,而且很可能在不远的未来它们会变得更聪明。

这些芯片会继续引领半导体技术、计算机体系结构和SoC设计的发展,从而促进更强大的处理能力,促使下一代AI算法的出现。

同时,新的AI芯片也会进一步需要更多的内存系统和芯片内互联架构,以确保新的硬件加速装置能够为深度学习提供稳定的数据流。

原文:https://semiengineering.com/artificial-intelligence-chips-past-present-and-future/

作者:TY Garibay,ArterisIP的CTO,55th DAC IP Track的董事会成员。

译者:弯月,责编:胡巍巍

推荐阅读:

  • 如何找到字符串中的最长回文子串?

  • 马云放弃阿里巴巴所有权?华硕裁员上百人;扎克伯格账号被黑 | 极客头条

  • 一场来自腾讯的自我革命,已然来临!

  • 10分钟搞懂区块链扩容,4个解决方案拿走不谢

  • 程序员保命指南:专治无规范代码!

  • 9月Python开源项目Top10

  • 程序员加班到2点 隔天迟到半小时 被告知下不为例

640?wx_fmt=gif

640?wx_fmt=gif

你可能感兴趣的:(为什么说担心 AI 抢人类饭碗纯粹是多余?)