解读

第一层,好理解,但是实际上在这一层,就出现了逻辑问题,后面再说。
基于第一层,提出第二层,也好理解

第三层基于第二层
第四层并不是基于第三层,而是基于第二层

所以相对来说,第三层应该叫第三层第一类型
第四层应该叫第三层第二类型
其实这两个类型没有任何关系,只是游戏形式跟一二层相似,都是做选择题。

我们重点讨论这第三层的两个类型

第三层第一类型

这个类型提出了我认为3个矛盾:

  1. 这个类型将博弈双方,从你和外星人,变成了你和外星人的电脑,并且将目标变成了拿到更多的钱,变为了辅助真实世界中的你拿到更多的钱。
  2. 你的选择不由你,而变成了一道无法选择的选择题,你必须选B,因为你是一个模拟。
  3. 而这台电脑不会出错,那么意味着,真实世界中的你,也必然选B,也就是说世界是确定的。

也就是说,若这个类型的前提成立,也就是说我们是某种宇宙模拟中的思想,为了真实世界的我们能获得最大收益,我们必须往最大收益进行选择,而真实世界的结果,已经注定,那么进一步推测,就说明不存在自由意志这个说法。

第三层第二类型

这个类型可以说是点题了,下面再对第三层进行总结。

这个类型提出了3个矛盾:

  1. 这个类型的博弈双方,并不是你和外星人,而变成了你和外星人的造物,并且你的目标并不是是否制造出怪物,而是在未来怪物被制造出来之后,防止被折磨。
  2. 假若大家都选择不造怪物并受折磨,那么怪物不会被制造出来,优解,假若大家都选择制造怪物不受折磨,那么怪物被制造出来,谁都不受折磨,优解。但是问题是谁都不知道各自的选择,所以永远不存在优解。
  3. 基于第一点,则认为,一个并未被制造出来的怪物,将影响现在人的选择。也就是说还未产生的东西,威胁到了现在的人类。

第三层总结

第一类型:

  1. 我们的行为不存在自由意志,我们生活在黑客帝国式的世界中。

第二类型:

  1. 还未产生的东西会威胁到了现在的人类。
  2. 假若没有人知道选择的结果,那么我们认为选择时随机的。但是一旦人类得知了选择的结果,例如第二类型,那么为了自保,大部分人会选择制造怪物并不受折磨,也就是说,当获知这个选择题结果的同时,怪物已经被制造出来了,不存在选择这个行为,因为结果已经注定。
  3. 可怕的不是最终被制造的怪物,而是这个选择题,因为一旦有了这个选择题,因为大家为了自保,怪物就被制造出来了。
  4. 这就是智能的可怕之处,在博弈论中,纳什均衡要求整个系统内的结点都是理性结点,所以能通过全部投不造怪物而受折磨来获得团队最优解,但是现实生活中,人类是非理性结点,为了自己的利益,可以牺牲团队利益,导致产生了怪物。

其实这些命题是为了说明,未知的功能,例如AI技术,假如可能威胁到人类,那么必然威胁到人类,因为人类为了自身的利益,会投“制造怪物而不受折磨”,从而导致怪物被制造出来。

钢铁侠和女友的选择

为啥他们对这个说法嗤之以鼻,一是因为他们对AI保持乐观的想法,二是之前的逻辑表面上看起来OK,但是是站不住脚的。

主要是现实世界并不是单选题这么简单。

第一层中的选择,实际上根据每个人的不同,会发生偏移,1000保底,还是100W搏一把,假若A箱中是50W,则双方投票可能相同,但是假如A箱中只有1000,则绝大部分人会选择B箱,因为1000对于整体财富来说,可有可无,不如搏一把。

所以,重要的不是双边选项,而是选择对于个体产生的影响的大小,假如整体影响对于个体偏小,则多数人选择站在激进的选择,而整体影响对于个体偏大,则多数人会选择站在保守的选择,例如下面3个命题:

  1. 你有100块资产,选A,增加5块,选B,要么0,要么增加10块。
  2. 你有0块资产,选A,增加5块,选B,要么0,要么增加10块。
  3. 你有100块资产,选A,增加500块,选B,要么0,要么增加1000块。

1,2两种情况,选择项一样,但是人不一样,则1大多数人会选择B,因为5块对于100资产太少了,所以干脆赌一把选10块,而2命题大多数人会选A,因为5块对于穷光蛋很重要,但是无法承受0的损失。

而1,3两种情况,人的情况一样,但是选项不一样,对于3命题,大多数人会选A,因为500对于100很多了,见好就收是大多数人的选择。

同样的,对于鼓吹威胁的东西一定会造成威胁的,这就站不住脚了,我们看看怪物那个命题:

对于每个人来讲,当前没有生命危险,未来也不想有,两个选项:

A. 不造怪物,未来被折磨
B. 造怪物,未来不被折磨

也就是说,当前所有人的生命是有保证的,而选项会导致被搞死的巨大后果,根据上面的理论,人们的选择多半会变成趋于保守,也就是说选择不改变现状,也就是说会选A。

从这个逻辑来说,大部分人会选A。

你可能感兴趣的:(解读)