三个思想实验与人工智能

这三个思想实验都是关于计算机与人工智能的。之所以叫思想试验是因为在现实中无法实现的实验,只能用想像去推理和构造实验结果的实验。

1、图灵测试

图灵(Alan Turing)是现代计算机之父,而图灵机刚是他构造的一个想象中的抽像计算机模型,这个模型也是他用理论表述的。

机器能够达到多高的智慧呢?这就要用到“图灵测试”了。

试想:人与另一方在彼此隔离的情况下交流,仅通过键盘和屏幕进行,人类输入信息,对方在屏幕上回应信息,如果人类无法从交流中判断对方是人类还是机器,那么机器就通过了测试,说明机器拥有了与人等价的智能。当然,拥有智能并不代表机器人拥有意向、意识和意志,如果一旦机器人拥有这些,人类的日子估计也走到了尽头。到目前为止,还没有一部机器能够通过图灵测试,就连聪明如阿尔法狗,也一样属于弱人工智能。

2、中文屋子

哲学家塞尔构造的中文屋子思想实验其实是图灵测试的一个变形,其精妙之处在于,他自己充当了图灵测试中被测试的机器人角色。

试想一间屋子,里面坐着塞尔一个人,然后有纸有笔,还有一个中英文对照表。外边的人把写有中文问题的纸条塞进门里,塞尔用对照表查出对应的英文问题,给出英文答案,然后再用对照表查出对应的中文,然后抄写在纸条上递出去。

回答完美无缺,屋外的人无法分别屋里的是人还是机器,于是图灵测试通过,尽管这个过程很完美,但这中间根本不存在“理解”这回事,因为塞尔本人完全不懂中文。

塞尔认为,他替代的那个计算机并没有理解力,只有单纯的计算。没有理解力也就不会有意识和思维,更不会有高级的人类智慧。他宣布,即使通过图灵测试,机器也还是机器,不会拥有与人等价的智慧。最多只是貌似而已。

3、亿年机器人

实验是这样设想的:你想亲身看到一亿年以后的地球,但你活不到那个时候,但是现有技术可以让你休眠,然后你在一亿年以后醒来。

然而,这一亿年中要发生很多不可预测的危机事件,为了保证你一亿年后安全醒来,你需要一个能感知环境变化、回避风险、寻找资源的机器容器(智能机器人),把你自己托付给它,给它下指令“保证我活着”,你要求它要自己根据环境变化去趋吉避凶、维持生命。

机器人如果能够在一亿年以后完美地完成了任务,那么它是不是已经发展出了自我运行的能力呢?你在休眠中,不能实时控制它,而它在保存你生命的最终目标下,根据环境变迁,会自己衍生出许多次生目标,也就是说机器拥有了相机决策的自主权,那么自主决策的进程一定会超越你的预想范围,然后呢?

失控。

这个思想实验可以做另一个理解,我们人类本身就是基因的机器人,基因为了自己的永生而让人不断地进化,赋予人类学习的能力,直至其拥有了自主决策的能力,然后就演化出了人类的自由意志。基因失控,人类自立,就成为注定的结果。既然这样,人类会不会重蹈基因的覆辙呢,看来霍金对人工智能的担忧不是没有道理的,当奇点来临、细思极恐。

这个结果与前边两个思想实验的结果是不同的,你更相信哪一个呢?

电影《机械公敌》就表现了机器人拥有自主意识之后可能造成的灾难,所以有人就设想在机器人的底层基因里写入“三定律”:

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;

第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

后来又有人加入了1条:

第零定律:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。

这些定律是否能够确保人类不受机器人的奴役,能否保证人类的生存与发展,这得看是由谁来解释了。

你可能感兴趣的:(三个思想实验与人工智能)