三个思想实验,它们是图灵测试、中文屋子和亿年机器人。
第一个思想实验:图灵测试
先来讲第一个,图灵测试。
很多年前,现代计算机之父图灵(Alan Turing)构造出图灵机也就是计算机的基本概念,他知道猛兽即将出柙。图灵机本身只是个思想实验,什么是思想实验呢?
科学家理解世界的办法主要是观察和做实验,而思想实验在现实中也没法实验,就用你的想象去构造的实验。
图灵机就是这样一个想象中的抽象计算机模型,但今天最复杂的计算机仍没有超过当初写在纸上的图灵机理论上能达到的能力范围。
图灵思考的下一个问题:机器能达到多高的智慧?
他又构造了一个思想实验,对机器智慧的终极测试——图灵测试。
想象这样一个场景:人类与另一方交流,彼此隔离,另一方对于人类来说是个黑盒子,你对他一无所知。交流仅通过“键盘—屏幕”进行,人类通过键盘输入,对方通过屏幕回应。如果人类无法通过交流辨别对方是人类还是机器,那么就可以说机器通过了测试,拥有与人等价的智能。
图灵自己只关心机器是否拥有智能(thinking),并未涉及机器能否像人一样获得“意向(intentionality)”、“意识(consciousness)”乃至“意志( will)”。但哲学家们就关心这些;不仅哲学家们关心,普通人也关心。
人人都关心机器会不会获得意向、意识、意志。一旦机器获得了这些东西,人类在地球上的好日子就算过完了。而且,对人类自己的意向、意识和意志,人类自己还不太明白,还想通过与机器智慧相比较,找到理解我们人类自己的线索。
解释一下,所谓意向(intentionality),就是心智在场(mind)、表达、代表事物的能力;所谓意识(consciousness),就是知道“自我”;所谓意志(will) ,就是自主选择。
既然图灵不关心,哲学家出手绑架了图灵测试。他们认为,与人等价的智能应该包含意向、意识、意志这些内容。没有它们,认知何来?不能自知,无法自决,谈何智慧?
著名哲学家塞尔(John Searle)把拥有意向、意识、意志的机器智能叫作强人工智能(Strong AI),而没有这些只会计算、推断,解决具体问题的机器智能叫作弱人工智能(Weak AI)。
今天你能听到的强人工智能和弱人工智能,就是始自于一个哲学家的分类。
在图灵测试的基础上,哲学家们提出了新问题:假设机器通过了图灵测试,那么它是否已经获得意向、意识、意志,拥有强人工智能?
这个问题没法直接回答。到今天也还没有任何一部机器通过图灵测试,也没有一部机器获得强人工智能。现有的所有人工智能都是弱人工智能,就算阿尔法围棋这般碾压人类围棋手,也一样是弱人工智能。
所以现实中无法检验,机器能否获得强人工智能。 但是现实中无法检验这件事,并没有难倒哲学家。
第二个思想实验:中文屋子
会做思想实验的又不止图灵一个,实际上,哲学家倒是思想实验的鼻祖,从柏拉图以来,思想实验就是他们主要的思想工具。
哲学家塞尔构造了一个精巧的思想实验,同时也是图灵测试的一个变形,叫作中文屋子(Chinese room)。
中文屋子的精巧之处在于,塞尔自己充当了图灵测试中被测的机器这个角色,而他确切知道自己这部机器没有人类智能,于是难题解决。
具体如下:
想象一间屋子,里面有一个人,就是塞尔自己,一沓纸,一支笔,一个中英文对照表。
人从门缝里塞进纸条,上面是用中文提的问题。塞尔用对照表查出与其对应的英文问题,给出英文答案,再用对照表查出对应的中文,抄写在纸条上塞回门缝。
回答完美无缺,屋外的人无法分辨屋里的是人还是机器,于是图灵测试通过。
屋内外通过纸条的整个对话应答过程尽管完美,但不存在理解(understanding)这回事——塞尔自己完全不懂中文。
通过将自己置换到机器人的角色,塞尔看到了机器人的“内心”。测试结束,他穿越回来,恢复哲学家身份,告诉大家那个通过 图灵测试的机器其实并没有智慧,因为他自己就是那个机器!
他确切知道自己不理解中文,屋子里的其他所有东西,纸、笔、对照表,也没有一样有“理解力”。中文屋子里没有理解力,只有单纯的计算(computation)。
塞尔认为,没有理解就没有意向,也不会有真正的思维,更没有意识、意志,这些层层递进的高级人类智慧。他宣布,中文屋子思想实验说明,哪怕通过图灵测试,机器也还是机器,不会拥有与人等价的智慧,最多只是貌似而已。
强人工智能不可能只通过计算获得,它有赖于大脑还未揭开的某个特殊机理。
塞尔中文屋子成为当代讨论最多的思想实验。这事的本质是这样的:哲学家先给图灵测试增加了一个强人工智能的靶子,然后宣布击败了它。并不太公平,但人们还是普遍长出一口气,没有想看到机器成为人上人。
我呢,觉的他高兴得太早。再来一个思想实验。
第三个思想实验:亿年机器人
如果你想亲身看到一亿年后的地球,现在能想象的惟一办法是休眠。你爬进休眠舱,然后在一亿年后醒来。
可是,问题没这么简单。休眠舱需要经受一亿年考验,要保证能源供给不断,要能经得起环境灾变,万一受损还得自我修复,数不清的考验它都得能应付,否则你就再也醒不来了。
你找个最理想的位置,有维系休眠舱所需的所有资源,然后固定在那里。行不行?
这不算好办法,一亿年间,地震、海啸、陨石撞地球,这么长时段中,想想就知道没法靠谱地预测风险如何降临。千年一遇的事情每天都在发生。不然,福岛核电站怎么会出事故?天津港怎么会发生大爆炸?更别说一亿年。
未来无从预测,那怎么办?
制造一个能感知环境、回避风险、寻找资源的机器人,把休眠舱放进去。
说到这里,你应该明白点了。不动,能动,是从自然界复制而来的两个策略,前者是植物策略,后者是动物策略。
要求机器择机而动,你从一开始给它下达了指令,“让我活着”,然后便沉睡一亿年,不再给它临场指导。你的机器人必须能够自己制定策略,“知道”如何去寻找资源,如何转移到安全地带,如何预判和回避危险。
这些你既不可能都提前想到,就算想到一部分你也不能事事都提前准备,你准备不起:所需资源太多,太笨重,更不能适应环境变化。
挑战不止于此。未来一亿年不会只有你的那个机器人,可能有许多机器人,彼此竞争、合作。你的机器人得具备合纵连横的能力,需求层层嵌套。
如果你的机器人最终不辱使命,将你保存到一亿年之后,那么它多半发展出了自运行的能力。你在休眠中,不能实时控制,机器人在保存你生命的最终目标之下,根据环境变迁,会自己衍生出许多次生目标。这是天大的事:衍生就意味着脱离,脱离于当初的目标。
不忘初心,何其之难。允许机器有相机决策自主权,那么自主决策的进程一定会超越你的预想范围,这就叫失控。
两个思想实验,针锋相对
讲到这里,你应该多明白一点了。这个故事中的机器人就是人类自己。在演化中,基因创造出人来做它们的机器人,以保护它们在人类身体深处漫漫休眠。人是基因为了自己永生而造出来的机器人,但在基因不得不让渡的自主决策空间中,人类演化出了自由意志。
我们作为人的利益,与“造物主”基因的利益,走上岔路。从基因不得不赋予人类学习能力,授权自主决策的那一天起,基因失控,人类自立,就成为注定的结果。
一言点醒梦中人。既然人本来是机器,机器何尝不能是人?
亿年机器人这个思想实验,来自丹尼尔·丹尼特的《直觉泵与其他思维工具》( Intuition Pumps and Other Tools for Thinking )。丹尼特是现代进化论科普大家,也是最具科学家气质的哲学家。在机器智慧与人类智慧的大辩论中,他的看法与提出“中文屋子”的哲学家塞尔针锋相对。
他认为,不需要什么神秘的大脑特殊机理,运算层层嵌套,足以涌现出与人类相当的智慧,因为人类智慧亦不外乎是。
在塞尔的中文屋子里,塞尔这个人、纸、笔、对照表,没有一样“理解”中文,但那也没关系,“理解”从所有这些东西构成的整体中涌现出来。
塞尔和丹尼特,针锋相对,现在没法说哪个看法对。有数据的地方,数据说话;没有数据的地方,故事说话。
现在没有数据,只能看你喜欢哪个思想实验多一点。我自己是更喜欢丹尼特,强烈推荐《直觉泵与其他思维工具》这本书。
直觉泵这个词就是丹尼特为思想实验发明的,指在没有证据、数据的地方,我们从公认的直觉开始做思想实验,看它将我们带到何方。丹尼特首创直觉泵这个名词,又恰是从批评塞尔的中文屋子思想实验开始。
最近在看逻辑思维方面的书籍,刚好看到着些能够使我们从底层了解思考,思考的起点,以上的案例来自《直觉泵与其他思维工具》这本书。它也是我们今天思维训练的灵感来源,这本书里面有数十个精巧的思想实验和思维工具有兴趣得我同学可以看一下。