SFKP • 计算机百科丨强人工智能的觉醒与人类的未来

clipboard.png

在昨天的推文中,我和大家分享了英特尔的一款神经拟态研究芯片 Loihi,这款芯片之所以厉害是因为具备了一定的“嗅觉”能力,可以根据生物信号来识别“嗅”到的气味,这属于强人工智能必备的能力之一,也让我们离复制大脑更进了一步。

但因为篇幅有限,文章中对人工智能觉醒的引申,也就是人工智能出现意识的情况只做了一个简单的分析,但大家似乎对这个老生常谈的问题依旧很感兴趣,尤其是经历了 2020 年这个艰难的开局,让我们进一步意识到了人的脆弱和无力。

今天,我们就来详细的讨论一下具备意识的强人工智能到底发展到了什么程度,到底会有哪些风险,我们人类能不能和强人工智能共存?

强人工智能的概念与定义

clipboard.png

1985 年 9 月 26 日,诺贝尔物理学奖得主,也被称为爱因斯坦之后最睿智的理论物理学家,第一位提出纳米概念的人 —— 理查德·费曼(Richard Feynman)在一次讲座中第一次提出了强人工智能的概念。

一般而言,弱人工智能不需要具有人类完整的认知能力,甚至是完全不具有人类所拥有的感官认知能力,只要设计得看起来像有智慧就可以了。

因此,过去我们所认知到的人工智能大多是弱人工智能,并且人们一度觉得强人工智能是不可能实现的。

强人工智能也称通用人工智能(artificial general intelligence,AGI),一般需要具备执行智慧行为的能力。强人工智能通常把人工智能和意识、感性、知识和自觉等人类的特征互相连结。

那么,这样的具备意识的强人工智能能够真的实现?

目前来说,模拟出简单的一个生物头脑已经不是不可能的事,一如化学技术累积发展下,现在许多研发药品已经使用计算机模型来推演药物效果,以减少受试动物的痛苦等,或者就像昨天的文章中所说,英特尔已经让芯片有了“嗅觉”。

这得益于电脑技术的发展。

从前在使用电脑语言的时代,原先电脑被认为不可能具备自我解决能力,电脑只是看起来聪明,实质上还是按照设计好的规则行事,并不能应付突如其来的状况,仍旧会犯下错误。

而近年来从电脑在摩尔定律与神经科学研究的协助下,透过在电脑上对生物神经元系统复杂的电位冲动模拟上取得了明显的突破,使人工智能越过发展中的坎 —— 神经处理机制的发现。

clipboard.png

因为生物的独特是在于刺激与反应下会强化其回馈作用,这类能够透过试错学习经验并总结,以回应各种刺激的系统(例如重复玩一款游戏便能熟能生巧),还能从每种回馈中又触发其他回路来升级改进思考结构,做出更复杂的精细反应(例如在对话中选择诚实、说谎、漠然之后考虑其不同行为的后果等),这样的仿生领域已经得到长足的进步,使人脑与人工智能的区别逐渐变得模糊。

但是,在机器是否存在有自主“思想”上的议题,将还会一直是人们争辩的对象,特别是在智能理性与心理感性部分要如何区别、统合,更需要进一步引导其具有人性,来为人类提供最佳解,目前这些方法都还没有探索出来。

在一些能够自动推理出最佳解的工具已经出现,如 Google 旗下的 DeepMind 在此领域进展最多,成功开发出了初级的通用思考机器,他们将其类人脑神经程式称「人工通用智慧技术」,而「通用」一词就代表者这是一个可以透过自主「进化发展」的通用智慧。

强人工智能的标准

clipboard.png

人们提出过很多人工智能的定义(例如能够通过图灵测试),但是没有一个定义能够得到所有人的认同然而,人工智能的研究者们普遍同意,以下特质是一个智能所必须要拥有的:

  • 自动推理,使用一些策略来解决问题,在不确定性的环境中作出决策;
  • 知识表示,包括常识知识库;
  • 自动规划;
  • 自主学习、创新;
  • 使用自然语言进行沟通;
  • 以及,整合以上这些手段来达到同一个的目标;

还有一些重要的能力,包括机器知觉(例如计算机视觉),以及在智能行为的世界中行动的能力(例如机器人移动自身和其他物体的能力)。它可能包括探知与回避危险的能力。

许多研究智能的交叉领域(例如认知科学、机器智能和决策)试图强调一些额外的特征,例如想象力(不依靠预设而建构精神影像与概念的能力)以及自主性。

基于计算机的系统中的确已经存在许多这样的能力,例如计算创造性、自动推理、决策支持系统、机器人、进化计算、智能代理,然而并未达到人类的水平。

回到具体的检验强人工智能的上手段,科学家们也有着很多不同的想法,其中最被广泛认知的是下面的这四种:

1. 图灵测试(图灵)

如果一个人(代号 C)使用测试对象皆理解的语言去询问两个他不能看见的对象任意一串问题。对象为:一个是正常思维的人(代号 B)、一个是机器(代号 A)。如果经过若干询问以后,C 不能得出实质的区别来分辨 A 与 B 的不同,则此机器 A 通过图灵测试。

2. 咖啡测试 (格策尔)

生活中空间、操作技能的测试。将一部机器带到任何一个普通的美国家庭中,让它在不经刻意设计的条件下,懂得泡好一杯咖啡。它需要主动在陌生空间中认识咖啡机、辨识咖啡和水、找到合适的杯子并放好,然后按正确的键和操作以冲泡咖啡。这需要仰赖机器人学、图像辨识的演算。

3. 机器人学生测试 (格策尔)

透过机器学习,分析和回答单一问题的测试 。让一个机器去注册一所大学,参加和人类学生同样的考试,然后通过并获得学位。例如日本的东大 AI 或是 IBM 参加抢答节目的华生。

4. 雇员测试 (尼尔森)

测试统筹、推断、发想、规划解决复杂问题的能力。让机器处在一个经济上重要的职位,需要它能够和同样职位的人类做得同样好或者更好。

这些测试虽然都不尽相同,但目的都是评定创造出的人工智能能不能解决人类的问题。

如果可以解决,那么就认定该人工智能属于强人工智能,也就是和人类一样聪明,称之为「人工智能完备」。

现在业界假定的人工智能完备的问题包括计算机视觉、自然语言理解,以及处理真实世界中的意外情况。目前为止,人工智能完备的问题仍然不能单靠人工智能来解决,依然需要介入人类的计算。

强人工智能的研究历史

clipboard.png

现代人工智能研究开始于 1950 年代中期。当时有一批狂热的人工智能爱好者,他们相信强人工智能不仅是可以实现的,并且将在几十年内就能实现。

人工智能先驱司马贺在 1965 年写道:“在20年之内,机器就能够做到一个人能做到的任何事。”

然而,到了 1970 年代早期,研究者们意识到他们远远低估了其中的困难。资助 AI 项目的机构开始对强人工智能产生怀疑,向研究者们施压要求他们转向更有用的技术,所谓的「应用 AI」。

在 1980 年代初,因为电脑产品的迭代发展科学界重拾了对强人工智能的兴趣,并制定了一个十年计划 ——比如十年内实现人工智能的「日常对话」。 这也让当时的工业界以及政府机构重新往人工智能的领域中投入资金。

然而,人工智能的市场在 1980 年代晚期发生剧烈崩塌,20 年内实现强人工智能的远景终究是没有实现。

到了 1990 年代,人工智能研究者背上了无法实现自己承诺的名声,他们拒绝再作出任何预言,并且避免提到任何「人类水平」的人工智能,以免被贴上「白日梦」的标签。

在 1990 年代和 21 世纪初,主流的人工智能在商业成果和学术地位上已经达到了一个新高度,依靠的是专注于细分的专门问题的解决。他们可以提供许多方案和商业应用,例如人工神经网络、机器视觉以及数据挖掘。

这些「应用人工智能」今天已经在工业技术和研究中得到广泛和深入应用,在学术和产业方面都得到了许多资助。

大多数主流的人工智能研究者希望,能够通过将解决局部问题的方法组合起来实现强人工智能,例如将智能体架构、认知架构或者包容式架构整合起来。汉斯·莫拉维克在 1988 年写道:

"我相信,有一天人工智能的自下而上的研究路线,会与传统的自上而下的路线半途相遇,从而获得真实世界中的能力,以及对于推理程序来说极其困难的常识知识库。这两种方向结合在一起的时刻,会成为了产生真正智能机器的所谓「金钉子」。"

然而,在人工智能研究者之间也存在一些争论,甚至涉及这个领域的技术理论基础;例如,普林斯顿大学的 S.Harnad 在 1990 年关于符号基础假设的论文中这样写道:

"人们期待,人工智能的自下而上的研究路线,会与传统的自上而下的路线半途相遇。但是如果这篇文章的基础是正确的,那么这个希望不会实现。

关于强人工智能的争论

clipboard.png

除了技术理论层面的分歧,关于强人工智能的争论,不同于更广义的一元论和二元论的争论。其争论要点是:如果一台机器的唯一工作原理就是转换编码数据,那么这台机器是不是有思维的?

希尔勒认为这是不可能的。他举了著名的「中文屋」的例子来说明,如果机器仅仅是转换数据,而数据本身是对某些事情的一种编码表现,那么在不理解这一编码和这实际事情之间的对应关系的前提下,机器不可能对其处理的数据有任何理解。

基于这一论点,希尔勒认为即使有机器通过了图灵测试,也不一定说明机器就真的像人一样有思维和意识。

但也有哲学家持不同的观点。

丹尼尔·丹尼特(Daniel C. Dennett)在其著作《意识的阐释》里认为,人也不过是一台有灵魂的机器而已,为什么我们认为:“人可以有智能,而普通机器就不能”呢?他认为像上述的数据转换机器是有可能有思维和意识的。

这个讨论,至今仍没有定论。但强人工智能的研究,并未因分歧而停滞。

强人工智能,科技企业的下一个战场

clipboard.png

谷歌有一个神秘的部门 —— 谷歌大脑,这是谷歌在人工智能领域开发出的一款模拟人脑的软件,通过开发具体的算法协助改进了谷歌的搜索引擎、谷歌翻译、谷歌地图和云计算基础设施。

同样,2015 年,马斯克和 Y Combinator 前总裁萨姆·奥尔特曼(Sam Altman)联合创办了 OpenAI,目标也是开发通用人工智能,确保「造福全人类」的前提下开发技术。2016 年微软也加入了这一项目。

2019 年微软宣布出资 10 亿美元,让 OpenAI 在微软 Azure 云平台开发 AI 技术。

除了加入 OpenAI 之外,纳德拉在 2014 年被任命为微软的首席执行官后不久,就开始围绕人工智能重新定位。纳德拉宣称,微软旗下的所有产品和服务都会“加入人工智能”,还宣布人工智能是塑造未来的三项基本技术之一(另外两项是“混合现实”和量子计算)。

此外,Facebook 也投资了人工智能实验室,国内的阿里巴巴、腾讯、百度等科技企业也纷纷成立目标为强人工智能的实验室。根据研究公司 Mind Commerce 发布报告显示,预计到 2023 年,通用人工智能的投资将达到 500 亿美元。

目前,科技企业与研究机构对强人工智能的研究基本上分为两大阵营:一方阵营认为只有深度学习才可以实现强人工智能,另一个阵营则认为必须与其他方面(如逻辑规则)结合。在深度学习阵营中,还有进一步的划分:一群强调算法创新,另一群则更关注构建神经网络的规模以及提供的数据量。比如 OpenAI 就是坚定的「数据党」。

但无论如何,强人工智能或者说是通用人工智能,已经成为了全球科技企业的战场,这不仅关乎市场份额,也是会不会被未来的市场淘汰的问题。

人类可以和强人工智能兼容么?

clipboard.png

已故的斯蒂芬·霍金将强人工智能称为对人类的最大威胁,前文提到的马斯克虽然通过 DeepMind 获得了丰厚的收益以及行业影响力,但他也曾经将通用人工智能的研究比作「召唤魔鬼」。

马斯克与谷歌的联合创始人拉里·佩奇也是朋友。他在一次采访中告诉记者,担心佩奇的公司在可能成功地开发出超人智能后失去控制。即便这不会发生,一家公司控制如此强大的技术还是令人担心。

既然这么担心,他为什么不停止人工智能的研究?

原因可能是,结束人工智能研究不仅意味着放弃理解我们人类的智能到底是如何工作的,还意味着放弃了改善人类状况的机会,也就是使人类文明更加美好或者维持下去的机会。

未来避免强人工智能带来的潜在风险,计算机科学家斯图尔特·拉塞尔(Stuart Russell)在他的最新著作《人类兼容:人工智能与控制问题》中提出了一个解决方案,可以让强人工智能对人类有益,并且永远不会失控:

“理想的强人工智能系统是其唯一的目标,是实现人的偏好而不是其自身目标的系统。只有这样人工智能才不会为了实现目标,而不顾其他的原因一意孤行。

最后一点非常重要,因为这正是当前人工智能所缺少的。现阶段驱动人工智能的系统不是让其理解人类的偏好,而是实现系统设定的固定目标,比如获得更多的广告点击、最优化行为路径,而不会估计对人类可能造成的危害和是否违背了程序设定的初心。

正因为这种设定,当前的人工智能系统已经逐渐显露出很多的问题,比如算法偏差、种族歧视等问题。

随着人工智能在执行任务时变得更加高效,这些问题可能会加剧。固定于实现一个目标的强人工智能系统,最终可能会为了实现他的目标而牺牲整个人类社会。

但单纯的理解人类意图也并非完美的解决方案,因为设定者并不能代表全人类,如何处理不同人类的偏好冲突和人类本身的邪恶思想,仍是无法规避的风险。

毕竟人类也不是完美的,人类的决策也存在着很多的争议。

只要回顾一下我们人类如何凭借自身超然的智慧来控制整个世界,就能想象当强人工智能的智慧超过我们时会发生什么。对此罗素在书的最后提出了一个问题,也作为本文最后的一个话题来和大家探讨:

在一个存在更高等智慧的非生物世界中,我们人类还能保持类似现在这样的控制权么?如果可以的话,我们的依仗将是什么?

clipboard.png

你可能感兴趣的:(人工智能,sfkp)