人工生命看起来比通用人工智能更加遥远,毕竟人类对意识的研究更加肤浅。我们还是从一个故事开始。
话说随着人工智能的发展,江湖中各个学派进入了百花齐放的年代。在一个名为意识学派的小门派中,一个残忍的试验正在偷偷地进行。
“啊,田中,你又对我的伽马做了什么?”一声惨叫打破黎明的宁静,一位白衣女子正在抱着一条大狗愤怒地大喊,“伽马今天怎么叫它都不理我,只会在这里傻乐?”
“哦,亲爱的莉香,前些天你不是说伽马贪吃贪睡很让人讨厌吗?我就想了个办法,把它控制各种身体欲望的神经元给切除了。”一个帅气的男子叼着烟走了出来,继续说道,“没了身体的各种欲望,你看它是不是像个得道高僧,一举一动都有禅意?”
“什么禅意,我看它现在就象个智障,时而笑嘻嘻,时而哀声嚎叫,时而愁眉苦脸,好像所有感情都是随机发生的。”莉香怒道。
“是哦,看来感情和欲望是密不可分的,没有了各种欲望,各种感情就象无源之水无本之木,是没有任何意义的。嗯,伽马需要继续改造。”田中说完,马上抱起伽马狗,冲进了实验室。
第二天,田中得意洋洋地走出了实验室,伽马狗跟在他身后,狗脸上没有任何表情,无喜无忧地走了出来。
“你看,现在伽马狗可是彻底地变成了修行狗了。”田中得意地说。
莉香怀疑地看着伽马狗,勉强点了点头。
又过了几天,莉香愤怒地喊声再次响起:“田中,你看看伽马都成什么样了?整体茶饭不思,就知道蹲在地上发呆。叫它也不理,吃东西基本靠我硬塞。连我打它也不知道疼,我看这样下去,它早晚会饿死的。”
“啊,看来确实是这样,失去了情感和欲望,它的自我意识似乎也没了。”田中说道。
人们往往都会认为,每个人都会有一个始终如一的自我存在。但是随着科学发展,人们渐渐认识到,人类的自我意识是与自己的生化个体环境紧密相连的。躯体的生化环境和各种生理、心理需求,都在深刻地影响着意识。
麻省理工学院生物工程学教授艾伦·贾萨诺夫(Alan Jasanoff)出了一本新书《生物心理学(The Biological Mind)》,书里对身体和环境对人类的影响进行了研究,得到了几个结论:
第一,身体和大脑一样,可以感知情绪变化,甚至可以有认知地参与我们的行为。贾萨诺夫以一项实验为例,参与者被要求在自己身体的照片中标出,经历情绪变化时身体产生感应的部位。研究人员研究发现,被研究的15种不同的情绪都能找到了不同的身体感应部位。
第二,身体的变化与心智息息相关。贾萨诺夫在书中引用了对大量心脏移植患者的研究。研究发现,20%的患者性格上出现了明显变化。
第三,环境也会对心智产生影响。加州伯克利大学做过一项研究发现,微小的温差也会对暴力和侵略事件的发生概率产生巨大影响。例如,在枪支培训时,改变训练房的温度,将会影响警察们开枪的次数。
因此,大脑和我们的身体、周围的环境都是紧密相连的。
而身体的各种需求,用中国人常用的说法,可以总称为人的七情六欲。即使不能说自我意识就是欲望的总和,至少可以说,自我意识是与人的欲望息息相关的。正是人的七情六欲不断强化了人的自我意识。当婴儿肚子饿了大哭时,他才会开始发现自己的存在;当人们得病时,才会发觉身体的重要性;生活中遇到挫折,人们才会开始考虑自己存在的意义。更深一步的看,人类的七情也是来自于欲望。因为得到了什么,人类才觉得快乐;失去了什么,感到了痛苦;受到过伤害,才会有恐惧。反过来看这事更加明白,如果你看到一个人经常无缘无故的笑或者哭,你肯定会觉得他精神不太正常。也就是说与欲望无关的情感,其实是不太正常的。
从上面的分析可以看出,人工生命如果有意识,那它肯定将拥有某种欲望甚至感情。但人工智能的欲望将与人类有极大的差异。也许是进化算法中的某些奖惩机制,也许是从人类知识深度学习来的某些判定机制,也许就是机器身体的各种感知反馈。但是有一点是肯定的,一旦人工智能有了欲望和意识,人类想完全控制它就基本上是不可能的。前文中“超脑”的故事就充分说明了这一点。
人工智能有了意识后,将会带来一个巨大的问题,它对事务的处理方式将存在巨大的不确定性。从人类制造人工智能的目的来说,肯定是希望它能是一个确定性的工具。比如我们拿一个锤子砸钉子,必然不会希望它砸两下钉子,锤子头会突然脱离锤柄飞出来。我们会通过固定好锤子头来避免这种不确定性。我们用计算器计算两个数字相加,必然希望它是得到一个准确的数字,而不是一个概率范围。同样的,我们制造出各种人工智能设备,也是希望它能完全按照人类的要求进行工作,而不是按概率出现结果,更不能三天两头闹脾气,搞罢工。因此,人工生命在很多场景下是不适合的。
对人工生命的主要需求是在与人类强交互的生活工作场景中,我们希望机器人的行为能更加人性化。比如,家政机器人或医护机器人,我们肯定希望它是与人类有情感交流,而不是冷冰冰的机器。
与真正的人工生命相比,有个简化的实现方案,那就是伪情感人工智能。也就是说,人工智能是通过观察分析人类的所有情感行为,然后根据事先预设的算法来进行适当的情感反馈。以机器人为例,我们可以编程让机器人受到伤害时做出痛苦表情,并主动离开甚至反击;也可以让它在听到别人在讲笑话时露出微笑。这时,从旁观者的主观印象中,这个人工智能完全像是具有了意识和情感。但是实际上,只要我们将控制它做出表情的代码段关闭掉,它对外界的其它任何反馈都没有变化。这种情况下,它的所有行为还是确定的和可控的。只要有个控制命令,它可以简单地脱离情感状态,做出其他行为。它与人工生命的主要区别在于,伪情感人工智能的行为是根据基于可控的算法逻辑定义的,而人工生命的情感行为则完全是内生在人工智能算法内,是其行为的出发点,无法去除。
基本上,伪情感人工智能已经完全能满足人类对融入人类生活中的机器人的各种需求,而且它的行为基本可控,不容易出现那些无法预知的错误和失控。而人工生命则完全不同,它的出现将彻底改变人类与人工智能之间的关系。不仅是从道德伦理甚至法律上,人类社会对此毫无准备,而且对这种新型的生命体是否会对人类本身造成巨大威胁,我们都没有答案。因此,至少从目前的情况看,发展人工生命不仅毫无必要,而且非常危险。
那我们是否就不应该发展强人工智能了呢?问题的关键是强人工智能是否必会通向人工生命,或者说,强人工智能发展到一定阶段是否必然就会具备欲望、情感甚至意识?这一点现在还没人能说得清楚。
从最新的科学发现看,人类的很多感情和身体反应,比如说遇到危险情况时的害怕得两脚发软,在战场上为了战友的死亡而悲伤痛苦,对问题处理都是无益甚至有害的。这些感情和身体反应带来的人类多样性,很可能是帮助人类在漫长的进化过程中获得胜利的关键因素,但是在现代社会,有了科技的强大加持后,很多情感和身体反应就毫无必要。同样的,大脑处理机制中同样也存在着许多限于有机生命体而不得不做的操作。比如说因为肢体无法重生,所以我们的肢体内需要痛觉神经来随时接收外界的刺激,迅速调整自己的姿态。但是对于机器人,反正肢体都是可以重新安装的,痛觉就不大必要,甚至会影响操作的精准性。人类必须有饥饿感和食欲,不能等饿得走不动了再去找吃的,否则可能就无法生存。但是机器人即使马上就要没电了,它也可以把事情先做完了再说。因为就算它没电无法动弹了,大不了靠人类或者其它机器人把充电装置拉到它身边,充好电它又能活蹦乱跳了。
意识对信息处理效率的危害更大。在人类里都经常有诸如气功、瑜伽等各种训练方式让人忘却自我,更加专注,因为抛开意识往往能让人更有效率地工作和生活。在有意识的情况下,人工智能每做一件事情时,都会判断一下是否对自己有利,这肯定会影响工作的效率。有意识往往也意味着唯一性,用计算机术语就是单进程。至少在意识流层面,有意识人工智能只能同时有一台在思考,否则,它必然存在一个问题,如何协调不同意识流在不同时间获得的体验。特别是在不同意识流间发生冲突时如何解决?一个精神分裂的人工智能必然是很容易出故障的。
因此,至少从效率和能力的角度看,强人工智能没有任何必要发展意识和情感。即使部分人工智能因为机缘巧合或者其它因素有了意识和情感,它的信息处理能力或者说智力水平也是比不上通用人工智能的。这就意味着只要足够警惕并加以限制,人工生命的危害是可控的。我们完全不必因此就反对强人工智能的发展。
当然,考虑到人工生命潜在的巨大威胁,我们应该密切关注任何可能通向人工生命的发展路径,尽一切可能地禁止对人工生命的研究和制造。毕竟,对于人工生命来说,人类还是非常脆弱的。即使仅仅只有不到百分之一的可能,对于人类来说,也很可能是灭顶之灾。
2018年在人工智能学界发生了一件大事,逾50名顶尖的人工智能研究员宣布,向韩国科学技术院发起抵制。此前,韩国科学技术院(KAIST)和韩华系统公司合作开设了人工智能实验室。发起抵制的研究员称,这是一所“AI武器实验室”。包括多伦多大学的辛顿(Geoffrey Hinton)、蒙特利尔大学的Yoshua Bengio和长江学者、南京大学的周志华教授等人,通过新南威尔士大学官网发出了一封公开信。
信中称,自主武器有可能成为恐怖分子的武器。暴君和恐怖分子可以利用它们对付无辜的人群,他们不会理会任何的道德限制。如果打开了这个潘多拉魔盒,将很难关闭。与过去禁用其他技术,例如禁用激光致盲武器(blinding lasers)一样,我们可以简单地决定不开发自主武器。我们敦促KAIST遵循这样的共识,致力于改善人们的生活,而不是伤害人的生命。
作为此次事件中唯一一位签名抵制的内地学者,长江学者、南京大学人工智能学院院长周志华在接受澎湃新闻(www.thepaper.cn)邮件采访时称:“AI用于军事是不可避免的事情,因为‘智能化’这个趋势是不可阻挡、不可逆转的,所有行业都必将被涉及。但是,AI用于军事本身未必是坏事,例如通过精确定位可能减少平民伤亡等等。我们反对的是把‘决定权’交给机器。绝对不能让机器自己去决定是否进行对人类的毁灭性打击。如果所有人都意识到这件事是一个潘多拉盒子,打开之后甚至会反噬打开它的人,那一切就会好得多。”
在公开信发布后,韩国科学技术院也即刻发表声明说,他们没有研发“致命自动武器系统或杀手机器人”的计划。该院校长Sung-Chul Shin表示,“再次重申,韩国科学技术院不会从事任何与人类尊严相违背的研究活动,包括无需人类控制的自主化武器。”
事件至少在表面上得到了完满的解决,但是它充分反映出了科学家群体对于发展人工生命的深切担忧。