【整理】关于人与人工智能 — 篇01

北京时间2017年9月15日,因远超了设计寿命,卡西尼号执行来自美国国家航空航天局(NASA)的最后一条指令:自我焚毁。
1997年10月15日,卡西尼号从美国的卡纳维拉角发射升空,用了20年的时间,飞行了超过60亿公里,代表人类造访了土星,完成了一系列探测任务。

这则新闻,是不久前的。

从上面的这段话中,你发现了什么?

没错,是“代表”这两个字。
过去几十年中, NASA不再热衷于载人飞行,而是用探测器取代人类进行探测。
因为对于太空飞行,以及太空探测来说,人,其实是个累赘。

不仅仅是生老病死,还要吃喝拉撒,这都需要携带更多的,以支持人类生存的物品上天,这对于目前的太空探索来说,成本太过高昂了。
探测器,必定走进太空,不仅过去,而且将来。

不过,从遥远的地球,发射指令:自我焚毁,到卡西尼号接收到指令,并执行,这个过程需要多长时间?

83分钟!83分钟能发生多少变化?
遥控,效率还是太低!
如果能让卡西尼号,自行进行判断,自行探测数据,自行……

人工智能,开始崛起!
不可否认,AI的崛起是个趋势,但会崛起到什么地步?是否对它的造物主,人类产生威胁?一直以来,下面两个问题都是争论的焦点:

1、 AI究竟能不能达到人类的智能水平?或者说超过人类?
达到人类的智能水平,是什么意思?
这里的定义是,AI具备通用的智能。学术上叫做AGI(Artificial General Intelligence)。这也就是说,之前打败柯洁的Alpha,并不是AGI,它只不过是一台很会下棋的机器罢了。因为说个笑话给它听,它都听不懂。

2、 对于人类来说,究竟是好还是坏事?
有乐观派,比如google的拉里佩奇;
也有悲观派,比如SpaceX的马斯克,还有霍金。

先不着急,就这两个问题的答案进行阐述,也不是我们一时半会能够阐述清楚的。就这两个问题本身,我们其实可以意识到,AI是人类发展以来,面临的最重要的问题了。
为什么?
人类自认为是地球上最高级的生物,是智力达到顶级的。那么人类能否创造出另一个物种,并且这个物种是否会毁了人类,这些不是最重要的么?

从生命生存和发展的“第一性原理”来看,一直以来,生命的要义就是两条,生存,繁衍。如果将AI(AGI)也视作生命的话,那么生命就可以分成三类。

三种分类怎么分?泰格马克从信息的角度给出来的定义,便于我们更好的理解AI的出现和发展。

生命,就是可以自我复制的信息处理系统。其中的“信息”包括个体硬件复制的蓝图,以及个体行为的模式。一个生命体包括“硬件”和“软件”:硬件就是它的身体,软件就是信息。——泰格马克

按照这个定义,生命的三种分类就出来了。

生命1.0:
生命的硬件系统和软件系统都是靠演化来进行更新迭代的,完全是自然选择的结果。

除了人以外,基本上所有的生物都是如此。物竞天择,适者生存。环境变了,动物是不会主动去改变,去适应的。只能通过生育过程中的随机变异,进一步让后代演化出能够适应环境的能力,这是个缓慢而漫长的过程。条件好的有优先交配权,不行的被淘汰了,行的留下。一切听天由命,而不是主动学习。

生命2.0 :
生命的硬件升级仍然依赖自然演化,当一部分软件系统的升级,则可以自己设计。

人类处于这个定义之中。
据生物学家统计,人类身上可以遗传的信息总量,大概只有1.6GB。但是一个成年人的大脑中,可以存储的信息总量是100TB。所以,把人类所有的生存技能都遗传给下一代是不可能的,而且生殖细胞的存储能力根本不够。
怎么办?

最理想办法是只遗传最基本的本能,除了饮食男女,就是生存和繁衍之外,还有一个最重要的基本本能,就是学习能力。这样,绝大多数技能都留到后天慢慢学习。

正因为有了学习这样一个最基本的本能,人才属于“生命2.0”,人类就可以在一定程度上自己设计软件系统(学习),去适应不同的环境变化,人类才是万物灵长。

所以我们不要整天感慨,抱怨遗传基因好不好,因为我们又那么庞大的脑容量,可以去学习。否则,你就是低级的1.0生命体。

生命3.0 :
生命的硬件和软件都可以自己设计。

什么是硬件可以自己设计?说白了,就是硬件可以升级。
计算机的内存不够了,扩内存;硬盘不够了,扩硬盘;CPU计算能力不够了,可以换CPU。这就是硬件升级。
当然,如果你说,人类的牙齿不行了,换副假牙;或者腿断了,加一副假肢,算不算硬件升级?off course, 这些当然不算,因为这些不涉及到质上的硬件升级,顶多是个原有功能的补充。顶多是生命2.0的改进版本,硬件2.1版本。

生命是软件可以自己设计?
刚才说了,就是可以自行学习,去适应环境的改变。

生命的定义:能够自行复制下一代。
那么如果AI(AGI)能够自行复制下一代,那么我们就可以说AI(AGI)就是一个生命了。进一步说,如果AI(AGI)具备了人类的全部智能,不仅可以自行进行软件设计和升级,还可以进行硬件上的更新换代,那么将会面临一个什么样的局面?——那些所谓的生命3.0的AGI看人类,就如同生命2.0的人类,看待生命1.0的生物一样。

可以说,生命3.0的 AI(AGI) 如果出现,那将是人类最后一个发明。

那么,问题来了,AI到底能不能实现人类的全部智能?

要回答这个问题,涉及的知识面太广,但最基本要回答几个问题,比如:
人类的大脑到底有多厉害?
电脑的工作原理是什么?
人的大脑工作原理是否和电脑相似?

“神威·太湖之光”目前是世界上运行最快的计算机,每秒的浮点运算达到10的17次方。这个算是一个好消息,因为要模拟人脑的全部神经元的工作行为,就需要这么一台“太湖之光”就能达到了。但也有一个不怎么好的消息,要模拟人脑的全部工作,就必须把模拟级别从神经元级别,提升到分子级别。

OK,就算模拟成功了分子级别,早就了这么一个“人”来帮忙工作,我想你也不会这么做的。代价太高:“太湖之光”占地1000平方米,造价20亿元,费电。如果我们直接雇一个真正的人来做,才多少钱?

因此,真正的人工智能,不是通过模拟人脑来实现的,而是通过模拟人的“智能”来实现的。
那么要实现“智能”的模拟,AI 大概只需要三种能力:存储信息、计算,和自我学习。关于模拟智能后,能否就成为AGI?这里面还涉及到人类的情感,意识等等,以后再讨论。

从已知的信息,人脑存储量大约100TB,以及AlphaGo打败柯洁来看,存储能力,计算能力对于AI的实现已经不是问题了,那我们来看看学习能力。

要看学习能力:
1、首先我们要知道人类,为什么能够学习。
人脑对于新技能的学习,是发生在神经元这个层面的。因为练习一个动作而经常被一起触发的神经元,最后就会长在一起,经过足够的联系,相应的神经元网络结构长好,就相当于一个技能长在了你的大脑之中。

2、 其次,AI如何进行学习。
学习,首先是个软件系统,AI的学习就是通过“神经网络算法”来实现。1989年就有人证明,用最简单的神经网络反复训练,每次只要系统做对了,就增加相关连接的权重,给足够多的时间最后它就能够做成任何事情。从一张普通照片里识别各种物体也好、AlphaGo 下围棋也好,所有“深度学习”的基本原理都是这样的。神经网络算法,也是通用的。

那有了这些原理,难道就足够模拟人的一切智能了吗?有一种观点就是人脑根本不是电脑,基于电脑的 AI 不可能真的具有人脑那样的智慧。

但现在科学家已经知道并且承认了,神经网络算法并不能解决所有问题,有些复杂的方程它根本解不了。但是:科学家们不是已经证明了么?描写真实世界的物理定律都是简单的,比如E=MC2?最多用到了二阶导数方程,而已!

根据上面的信息,其实要得出的一个结论就是, 也许电脑和神经网络算法不能完全取代人脑,但是对于真实世界需要的智能来说,它们可能就已经够用了。

好,结合上面说的存储能力、计算能力和学习能力,这些底层原理,其实都是逻辑意义上的。也就是说,这些原理跟把信息存储于什么介质中、用什么东西来计算无关。
如果,AI的硬件,软件,可以随便升级。那么AI就是生命3.0。
而且这种硬件上升级,是以物理学的限制为尽头的。

接着,问题又来了。如果AI真的能够成为生命3.0,那么我们如何展望所谓的人类文明呢?科学家们的思路,远远比科幻小说家们更加的匪夷所思。

未来的世界,并不是一定美好的。
1、 AI听命于人类。
2、 AI与人类主导世界。
3、 AI主导人类文明。

关于AI听命于人类
这看着是最好的结局,但这涉及到其他的法律问题和道德问题,还有行为悖论问题。

比如“机器人三定律”第一条,不能伤害人类?怎么才算是伤害不人类。
最简单的一个例子,AI驾驶汽车上,出现了状况,前方有老人,左方有小孩,右方是悬崖。车上如果停车,有病危病人来不及送医院?咋弄?

再有的是,绝大多数交通事故,其实都是因为人的错误。有人估计,如果把路面上所有汽车都交给 AI 开,交通事故至少能下降90%。但问题就在于剩下的这10%算谁的。到底应该让车主负责,让汽车厂商负责,还是让开车的 AI 负责?考虑到这种责任风险,厂商必须把 AI 事故率降低到极限,才敢推向市场。
正因为,AI还是听命于人类,那么AI的世界中,人类还是有很多的烦恼。

AI与人类共同主导世界。
你相信么?我是不相信的。

如果AI具备更好的技能,有了更多的人类所不具备的能力的时候,会共同主导世界,与人类分享?(AI具备了和人类,或者超过人类的智能的时候)

历史以来,一旦某个人,或者某个政权有了一种特殊能力,他就一定会使用这些能力。也就是说,所谓共同主导世界,其实就是AI与人类争夺主导权的过程。

如果要限制AI的主导权?除非是具备整个世界的强大的控制权,否则的话,即便几个大国不发展AI主导权,小国呢?总会有小国偷偷摸摸的去发展AI,用AI的主导,换取让自己的国家强大。

AI主导人类文明
我们将思考的尺度在往前延伸,10000年以后,AI的能力远远的超过人类。人类其实就是在AI眼中的1.0生命,也就就成为了一种宠物。
当然,这也是个比较好的结局了。

因为那个时候,人类是否还存在,都是一个怀疑。
因为相对于整个世界来说,人类是一种低效的动物。如果按照E=MC2来看,按照获取能量的方式相当于消耗了多少质量来算的话,人类对能源的转化效率低得离谱。我们吃糖获得的能量消耗效率,相当于0.00000001%。

在AI面前,这样低效的生命,有没有存在的必要?抑或是诺亚方舟中,需要的样本而已?

也就是说,AI主导人类文明的情况下,AI还会不会在意我们这个“人类文明”?

——————————————————————————————————
以上是《生命3.0》这部书要阐述内容的一部分,如果对什么是生命,什么是AI,什么是图灵机都不知道的人,便对AI来胡天海阔的胡扯,是没有任何意义的。
读懂AI,这本书一定要看。——目前没有中文版。

如果把思考放大来看,我们人类只是宇宙的一部分,宇宙的存在是否有目标,在宇宙的目标中,人类是一个什么样的存在?AI又是一个什么样的存在?这两个存在是宇宙目标实现过程中的一个必然,还是一个偶然,或者是其他什么?

期待后面,我还能继续整理——宇宙的目标

你可能感兴趣的:(【整理】关于人与人工智能 — 篇01)