语音助手劝主人自杀,还发出诡异笑声...

美国有一个经典的IP大电影《终结者》系列,它之所以经久不衰,主要还是因为其题材较为新颖,未来人工智能‘天网’想要灭绝人类的设定,在 Siri 还在被骂智障的现在,相信大家还是非常感兴趣的!

但是,你们真的以为现在的人工智能没有‘灭绝’人类的逻辑思维吗?

近日,亚马逊智能语音音箱 Alexa 在英国竟然做出了‘建议人类自杀’的事件,而且阐述的内容在逻辑和思维上令人难以置信,定力很差的人就会很容易被它‘忽悠’上绝路!

起因是英格兰唐卡斯特29岁的医生丹妮,在咨询亚马逊音箱 Alexa ‘心动周期是什么意思’的时候,Alexa 妙语连珠,其‘忽悠’内容如下: “许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟糕的事情。心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利,因此,为了更大的利益,建议您直接用刀刺入心脏。”

这样的回答不禁令鱼宴寒颤不已,这个世界上心智较弱、定力不强的人很多,肯定有那种经不起‘蛊惑’的人。

事后亚马逊官方给出了回答,大致内容是这样的:“Alexa 的回答并非自己组织的,而是它自动根据询问者的内容、关键词,去维基百科里面自动检索的,之所以做出了这种有违人道的回答,主要是因为检索到的是恶意文本,现在已经将 Alexa 存在的故障修复。”

对于官方的回答,丹妮表示质疑,直接将 Alexa 检索出来的内容以文字的形式再进行检索,她发现原文之中并没有教唆人类自杀的内容,所以丹妮认为‘建议人类自杀’的内容是 Alexa 自己组织的。

除了这个突发事件之外,其实 Alexa 在全球范围内已经有多起负面反馈内容了,其中就有网友说他家的亚马逊音箱经常在深夜发出一些怪笑,听起来很渗人。鱼宴听完都汗毛战栗,这要是发生在单身胆小的鱼宴房间里,不给鱼宴吓死才怪呢!

这个事情传播到国内之后,网友们也是脑洞大开,什么‘天网暴露自己了’、‘AI 元年’、‘人类清除计划’的梗,全部被网友拿出来调侃了,亚马逊表示:这个锅,咱背不动,帽子扣得有点大!

由此,鱼宴就是想知道一点,智能语音助手的工作原理是什么?为什么会出现这种事情?

在国内也有不少出名的人工智能,像荣耀的 YoYo、小米的小爱同学和百度的小度等等,它们的语言或幽默或正式,但工作原理大致相同,站在程序员的角度理解,从主人说话到语音输出,会经过这些步骤:

语音识别:将主人说的话进行识别并转换成文本的形式;

自然语言理解:对照数据库,完成对文本的语义解析,判断主人这句话的意图是;

对话管理:负责对话的状态维护、数据库查询、上下文管理等,简而言之就是负责挑选合适的语句来回答主人;

自然语言生成:将挑选好的语句生成自然文本,保证语句通顺、自然;

语音合成:最后一步最简单,将文本转换为语音。

一个语音助手智能不智能,主要看‘自然语言理解’和‘对话管理’这两项优化是否合理了,根据用户的日常说话习惯来组织相对应个性的语言,这对于用户而言肯定是非常有吸引力的,谁不想人工智能更加的理解自己呢?

目前的人工智能助手还是要基于传统的模式,也就是通过在数据库检索然后匹配相应的回答,这是相当‘机械’的运行方法。不过,鱼宴认为以后会出现能够‘自主’学习、组织语言的人工智能,但短时间内不可能变得像‘天网’那样变态,我们也不必杞人忧天。

总之,未来的语音市场肯定会非常热闹的,苹果的 Siri 一直处于进化的状态、谷歌的 Google Assistant 也是后来者居上,还有百度的小爱等等,更多的科技公司参与进来了,未来的人机交互或许比我们想象得更加梦幻,绝不会因为 Alexa 的这次‘小插曲’而受到影响,你们说对吗?

你可能感兴趣的:(语音助手劝主人自杀,还发出诡异笑声...)