Master 60连胜,柯洁也输了,人类该怎么办?

Master 60连胜,柯洁也输了,人类该怎么办?_第1张图片
Master胜柯洁棋谱


现代计算机理论认为CPU一切指令,可以分解为三类——顺序、分支、循环,被称为程序的三种基本控制结构。

很多人都以为自己理解了上面的这句话,实际上没有。

假如,我问一个问题,现在桌上放着两个东西,比如两个苹果,这两个苹果几乎一模一样,请问你会选哪一个?

计算机三种基本结构都回答不了这个问题,如果让计算机来选,它会动用随机函数,随机选择一个;如果让人来选,人也很可能是随机选择一个,但人内心知道,自己不是简单地随机选择,是意识。这就是三种基本控制结构缺少的东西——选择(也可以称为意识)。“分支”不是“选择”,很多人将“分支”和“选择”混为一谈,这是无知的一种表现。

如果,一个程序它有“顺序、分支、循环 、选择”,那么它就是一个有意识的完整生命体。选择不是无意识的随机,选择是有意识的主动。

在AI领域,图灵得到了很多人的认可,不仅仅因为图灵是一个天才,还因为他和其他科学家都不一样,他不像其他人那么死板。在他看来,机器是能够思考的,他所做的工作不过是在向人们证明这一点。

图灵在1956年的时候写过一本书《Can machines think?》,如果按他的本意书名应该写成《Machines can think.》,有兴趣的人可以读读图灵的这本书,感受一下大师是如何思考的。“因为相信机器能够思考,才搞了图灵测试,并不是要用图灵测试证明机器能够思考。”

从科幻电影《我,机器人》中,很多人了解了“机器人三定律”,

1)机器人不得伤害人,也不得见人受到伤害而袖手旁观。

2)机器人应服从人的一切命令,但不得违反第一定律。

3)机器人应保护自身的安全,但不得违反第一、第二定律。

机器人三定律是身为“科幻小说”作家,而非科学家的阿西莫夫Assimov在1950年提出的。根据我多年经验所得:越是错误的理论,往往越容易深入人心。“机器人三定律”就属于这一种。

我想问,什么叫作“伤害人类”?

假如,有一个智能汽车机器人载着一个人类,突然路边窜出一个小孩,这时刹车已经来不及,要么撞上这个小孩,要么将车左转撞向护栏,导致车上的人受伤甚至死亡。汽车机器人无论怎么办都会“伤害人类”。

从这个简单的例子中,就可以看出,所谓的“机器人三定律”就是彻头彻尾的谬论,属于为“普通大众”准备的道德观。既然人都无法做“不伤害其他人类”,机器肯定也做不到。

AlphaGo战胜人类并不可怕,机器有意识也不可怕,这应该是一件令人高兴的事,就像电影《2001太空漫游》所描述的一样,到那时,人类可以丢弃肉身,拥抱机器,然后奔向大空。但是,在这之前,人类和机器必有一场大战,可惜我们都看不到了。


Master 60连胜,柯洁也输了,人类该怎么办?_第2张图片
更多内容请关注微信公众号 perfectmemorization

你可能感兴趣的:(Master 60连胜,柯洁也输了,人类该怎么办?)