拟人化AI的能实现吗?

姓名:唐来宾  学号:17101223417

转载:

http://mp.weixin.qq.com/s/p0P_VVniwuiHXWZbLfo3rQ

【嵌牛导读】是否需要赋予人工智能,与人类一样的情感,和是否应该赋予人工智能,超脱于人类的体能和智能。

【嵌牛鼻子】人工智能,人类情感

【嵌牛提问】人类是否能够赋予机器情感?

【嵌牛正文】我们都知道tfboys在这段不太爱出新歌的时期,尤其是上了春晚以后,出了个新的网剧,在这里我们就不剧透是什么了。内容中提及几名科学家对人工智能的一个看法,就是是否需要赋予人工智能,与人类一样的情感,和是否应该赋予人工智能,超脱于人类的体能和智能。

0s1rWD1QofMWRugmsjPHqFQvssMjo6ni31qfgDEwfUUCv1450942381784compressflag.jpg

在这里呢,作者本着个人观点来做一次没有明确终极论点的论述,拟人化人工智能的可实现性。类似于这样的脑洞题呢我们必须要抛开一些容易跑题的设定。第一,人工智能的安全性,我们作为生物,被大自然物竞天择出来,仍然会保留着杀戮的本性,所以考虑所谓安全性只是为了人类社会秩序和AI存在意义而已,所以这里我们默认AI的安全性为不确定,可以由人类进行设定,当然,在下文中也会对AI的安全性进行一个详细的描述。第二,AI的社会问题,这种问题不属于我们今天讨论的可实现性问题上面,社会问题请交给社会学家和心理医生去处理。第三,各种材料技术问题,材料技术问题永远是我们想象力的阶梯,但你走楼梯不仅仅要克服重力向上爬,你还得利用摩擦力向前进。日新月异的科技发展已经告诉我们一个道理,你敢想象的创新,不违背基本的已知的公认的物理原则,我们是可以给你制造出来的。

247-150520101K3Y0.jpg

那么我们开始AI实现性的第一个问题,拟人化。我们知道,计算机的出现是可以使得一切简单的工作自动化。注意两个关键词,简单的工作和自动化。海尔集团引进的德国的一款生产流水线就是半自动流水线,在当代,大部分欧洲国家的农业生产已经可以实现了全自动化,这些都需要归功于自动化技术的一个发展。那么我们就要清楚了,如果赋予了AI等同于人类的情感,我们就必须要让AI也可以把情感自动化。自动化意味着两点,第一点,脱离人类,也就是说一个智能机器人他在没有人类互动的情况下,是可以和整个世界,甚至整个宇宙进行互动的,我们就需要编入所有他可以遇到的,或者说,感知到的”对象“。这样才可以进行和这个世界的稳定沟通,那么我们根本没办法赋予一台可移动的人工智能,这么强大的存储空间来容纳这个世界的信息,况且还需要对大部分的行为做出回应,这是连人类已知空间都没办法涉及的。

3417eb9bbd90175b6f5a49.jpg

对于上述一个观点,我们大可放心,有三种方法解决它,第一,云端技术,我们现在都知道互联网技术的发展已经可以使得我们能够获取到更大更广阔的计算和存储空间了,那么对于AI也一样,连接上一个云端的数据库,就可以对数据进行查询。第二点,我们人类在对事物进行认知的时候,会进行分类,在面向对象技术当中,也有类,类有属性,我们只需要把所有能被AI感应到的属性进行值的划分,然后分入类当中,同一种类可以进行同一种响应,这是最基础最简单的方法。打个比方,在森林中检测到的一切昆虫都可以被划分为一个类,那么昆虫类的属性可以被提现在外形和温度上,响应为“空“,这样,我们制造的AI在野外不会因为看见一只蝴蝶或者蚂蚁而惊讶,这样的默认设置也可以为后续详细的完善进行铺垫。第三种方法呢就是学习性,我们人类有学习性,机器也可以有,包括我们开发出来的游戏,都需要在用的过程中不断地更新完善,所谓学无止境,在AI当中同样适用,那么如何学习呢?在早年的人工智能聊天软件中就有这样的办法,我们客户端可以上传对某些句子的回应,这样我们在对话过程中说出这些句子时,AI就可以做出回应,当然,这种靠扩充数据容量的办法比较不严谨,很容易混入一些不可靠的数据,影响机器的反应。

164032587.jpg

再说自动化的第二点,具有约束性的自由化,学过数据库的都知道,数据库是具有约束性的,确切来说,数据也是具有约束性的。在让AI自动化的时代,我们赋予他们约束性的自由化,是很难实现的,首先一点就在于,情感的控制方面,人类本身的情感是及其细致的,我们甚至无法归结出人类情感的组成。譬如,我们无法解析伤心这一种情感是由什么样的基本情绪组合而成的,那么在研究“让机器人的情感自动化“的时候,我们又不可避免地需要让机器人”具有”各种各样的情感,我们如何赋予一个对象我们人类都没有办法解析的属性呢?第二,在许多欧美电影中也有提到,AI能掌握的情感,包括撒谎、爱情等属性,大部分都是在模仿人类的行为而已。我们无法将这些属性设定成为其特有的自带的属性,只能设置模仿属性,这样机器人的“自动化”就变得不可掌控,其自由化大于了约束性,一个只会模仿的AI是否是具有存在意义的呢?

a0b3ccf7dbf81232549d27.jpg

以上有关约束性自由化的观点,我们可以这样突破,飞机的各个参数值是可以进行设定的,那么如果我们同样将“情感”这一属性作为某一种特定参数值的话,太难设置了!人类有许多情感呢,但万幸,我们有精准设定。玩个简单的小游戏吧,我们把复杂的情绪简化,最简化到只有四个基础情绪,就像三色光能组成大千世界所有的光色一样,我们用不同比例组合四种基础情绪,越精准的计量可以组合越多的情绪。喜、悲、未知和自私,这是作者自己设定的四种组合成人类情绪及反应的参数,恐惧可以由百分之百的未知衍生,而恐惧状态的值超过人类划定的某个值得时候,可以转变成“愤怒”状态,就像人们对黑暗的恐惧一样,在黑暗状态下久了,恐惧到了极点,会转变成为一种癫狂的愤怒。而悲这种情绪也会在超过一定的额度值的时候开始部分转变出愤怒。这是单一情绪或者状态的设定,还可以有什么呢?悲和未知结合可以产生出“绝望”的情绪或者表现。这些情绪或者表现可以为了拟人化转变成一个AI的常态或者外在行为,甚至可以设定其能够影响AI的反应力。当然了,当我们的技术可以达到这个点的时候,所谓模仿人类就不再存在了,因为它自身就设定有了一个“情绪”属性,并且可以设定是否允许有自杀行为,愤怒时是否具有攻击生物的行为。当然,这些哲学问题我们就交给哲学家去处理了,我们只需要考虑技术可行性就好。

thumb.jpg

那么除了”情感自动化“这一个设定上的技术难关以外,人们还在AI的技术上需要克服许多奇怪的问题。在美国著名的动画片《南方公园》当中就出现这样一个没底线的AI,它的设定就是讲笑话,但其创造者没有对它讲的笑话赋予底线,所以它会说出许多具有歧视性的无底线笑话,甚至开始杀人。而为了阻止笑话AI继续杀人,南方公园的一名小学生用了一个悖论来使得AI死机。剧透了好多呢= =。那么在这里就牵涉到了人类的一个很神奇的终结话题——悖论。

哲学上有悖论,科技上也有悖论,数学上也有悖论,甚至文学创作中也会出现悖论。这个东西是无处不在的,甚至没法提防的。我们在生活中尚会遭遇到各种各样左右为难的事情,那么我们赋予了AI”情感的自动化”以后,它们会不会也在生活中遇到左右为难的事情呢?或者说,AI会具有烦恼和悖论吗?在遭遇烦恼和悖论的时候,AI又会做出什么样的反应呢?

让我们开启脑洞,一个一个问题地解决。如果说我们赋予了AI约等于人类的情感,就意味着我们还必须设定两个东西,一个叫“习惯”,一个叫“人际关系”,人际关系是挺好设定的,可以根据AI与某个对象互动过程中所造成的”情绪“属性值的变化来改变对某个人的“好感度“,对某个人行为上的观察记录可以生成某个人的行为方式,当然,要赋予AI学习能力和剖析能力这是下文要讲到的内容。包括人际交往中我们还必须设定所谓”道德准则“的东西,当然,说过了这些是社会学家要做的,AI的技术问题由技术人员解决,社会问题就必须由社会学家解决,一个AI的诞生不能只有科技人员的参与的。还有一个叫”习惯“的属性值,我们怎么给AI设置习惯呢?作者个人的一个思路是,随机数,我们都知道,计算机是可以在一定范围内选取随机数的,那么AI的行为,尤其在左右为难的时候,其实就是一个普通的IF语句罢了,第一次用随机数解决这个选择,就像用抛硬币来解决问题一样,到了后面,可以根据已经记录的数据来进行解决,就像aloft go一样,能够进行模拟,选出所谓最优。那么其实技术上问题就只有两个,一个是对数据库的记录和完善,能够生成习惯最早的参数,另一个是对于信息的处理和分析能力,这一点我们默认AI是具有的,因为到了下文会解释其可实现性。

b4cede99200d247a2dc5c64379026009.png

好了,现在我们拥有了一个有习惯的有情感的AI了,在左右为难的时候它甚至可以果断地抛硬币决定,虽然有些不人性化,但如果人性化一些的话,他可以设定是依靠亲密度来做决定,依靠情绪来做决定甚至依靠最优解来做决定,这些我们人类都可以设定的,要什么参数我们给它什么参数即可,无非是一堆的人工设定罢了。那么另外一个问题就比较棘手了,甚至可以说是没法解决的,就是悖论。

1422950145152246.png

众所周知,如果悖论可以被破解,就不叫悖论了,同理,如果AI能破解某个悖论,那么在人类的认知甚至是机器人思维里面,都不会存在这个悖论,这本身也是一个存在与不存在相当矛盾的悖论TAT原谅作者脑子已经不够用了。

u=699767425,1672988459&fm=21&gp=0.jpg

那么我们都知道,在面向对象编程语言当中,有一个神奇的设定,叫做错误,错误还分两种,获取错误和报错,这两者有区别,一个是能由程序自己能解决的错误,另一个是程序自己解决不了的错误,会导致程序无法运行的错误,需要人类来解决的。AI允许出现这种错误吗?这就要看有关悖论的能容度设定了。因为如果AI接受悖论的时候,当机死掉了,需要人类进行重新设定,那么就和自动化里面的一个要求——可以脱离人类来认知这个世界,相违背了,这又是一个悖论。所以我们在设置AI的时候,一定要设置出一点,它会不会自杀,人想不开时候,会有轻生的念头,我们设置一个AI在遇到想不通的问题的时候,会不会死机,不会的话,我们就必须把这样悖论暂时存放起来,那么神圣的云端就起作用了,这也是我们可以利用AI对世界进行认知一个方式之一。

ca477844b99c6626aaf6fb3ae2e367c2.jpg

当然了,刚才提到的所谓左右为难和悖论,都是可以认为设定反应的,并且能够在硬件上提供紧急预案的,可有一些东西,确实是我们想着,AI难以拥有的,就是学习能力和创造力。学习能力和创造力是作为生物的一种本能存在的,有脑子的没脑子的生物都有各自活法。所以我们可以对狗进行训练,有警犬和导盲犬,我们可以对章鱼进行训练,让它会走迷宫。那么我们人类,作为机器人的老师,能不能对机器人进行训练呢?学习能力涉及到上述的许多观点,包括模仿人类,包括遭遇左右为难。那么我们看了,学习能力和艺术创造力,其实是对无限可能的一种发掘,虽然我们赋予了机器人智慧和情感,但很遗憾,我们能赋予他们对于时尚和美的创造,可能只是死板的大数据容量和简单的黄金比例,他们需要通过找到无限种可能性,来判断创造出来的事物,是否是美的。而学习能力和剖析事物能力是一种阻碍。

182713181.jpg

我们如果需要赋予AI学习能力,我们就必须从学习的一些本质上出发,首先,AI已经具有了足够大的一个存储空间——云端,这就意味着我们可以把已知的很多东西,都存放进入,AI可以接入云端进行分析,甚至可以利用云端内容为我们进行更多的分析。而分析的过程是什么呢?就只能是对某个对象属性的获取。AI可以具备超出人类的感官,在光色上可以辨识更多的颜色,这样它们自然可以辨识和区分许多事物,从外形,色泽,光谱甚至C14上面去判断,这是辨识能力,所以说,辨识能力是靠足够多的数据进行比对来产生的。就像金山毒霸,金山毒霸本身就是一个巨大的病毒库,通过扫描文件与病毒的相似度来进行对比,进而判断这个文件是否是病毒,属于哪种病毒。辨识这一行为也可以通过这种方式实现。

那么学会了便是,就可以继续学习下去了。我们都知道我们给了AI一个情感处理器,也就是说AI的情感可以由几种最基础的元素组成,那么自然,AI可以将观察到人类的情感分析称几种最基础的元素,进行比对学习,当然,如果只是单纯地看到一个人在哭,AI可能会以为这是伤心,所以,学习能力与感知能力是成正比的。分析事物可以有多个角度,从最简单的外形、颜色、温度,到复杂的行为,情感,迷惑,谎言。总的来说,AI的学习能力,可能只能靠对比足够多已知数据来实现。

p2206052644.jpg

所以AI不会具备科技上的创造力,这是作者现在给出的一个结论,至于这个结论在日后有没有办法得以被推翻,我们可以再看。但AI可以具有艺术上的创造力,因为它可以在某个有限制性的范围内,创造和模拟出所有的图形和形态。打个比方,我们想要让AI创造出一个雕塑,那么AI可以根据人体美感或者风格,创造出任意数量的雕塑,总有一个能够意外地被艺术家相中,那么就可以反应出来了,AI其实是不会具备有自我评价的能力的,它的创造力不可以达到前无古人的突破,只能达到与美高度接近的水平,这也是作者在这里摆出的一个结论。

End-of-the-World.jpg

就作者个人的角度来说,我们在看待AI的时候可以进行一些分析,有很多AI存在的不可能性的问题,其实都不是技术上的问题,而是人类本身的问题。AI存在的意义,AI的作用,AI的安全性,这些问题对于AI来说是完全没有意义的,因为它们没有浑然天成的思维,甚至大部分无脊椎生物也是,只有本能存在。一棵树是不会思考他为什么会存在这个世界上的,也许我们可以创造出比人类更聪明的AI,他们甚至可以拥有比人类还复杂的情感,但代价就是,这些AI,可能会和一棵树一样,不会去思考他们为什么而存在。哲学的问题,有哲学家解决,社会的问题,有社会学家解决,如果要创造出一个能够完美应对这些问题的AI,只有一群科学家,必然是想不通的。

你可能感兴趣的:(拟人化AI的能实现吗?)