有关人工智能最耸人听闻的故事

本文由 「AI前线」原创,原文链接: 有关人工智能最耸人听闻的故事
作者|Luba Belokon
译者|张斌
编辑|Emily

AI 前线导读:人工智能“恐怖”小故事集合:从虚拟吃人到种族歧视的怪物,到智能识别同性恋的算法,再到自动聊天机器人走偏的情景,让人忍俊不禁!


如果你不惧怕 AI 迄今为止的所作所为,那么在你读完这篇文章之后你可能会改变看法。Statsbot 团队将在此为你集中呈现最具代表性并且最恐怖的 AI 故事。如果你有什么要补充的话,请把你的故事写在评论中吧。

嘘!

虚拟吃人

这个故事是 Mike Sellers 讲给我们的。两千零几年的时候,Mike Sellers 正在美国国防部高级研究计划局(DARPA)从事社交 AI 方面的工作。它们一起开发具有社交学习能力的代理。

“在一次模拟中,我们用到了两个代理,一个叫亚当,一个叫夏娃。它们只知道做事情的方法,其它方面则什么也不懂。举个例子,它们知道怎么吃东西,但不知道能吃什么。我们给了它们一颗苹果树(当时我们一点儿也没想过苹果树的象征意义:来自亚当夏娃偷吃苹果的典故),然后亚当和夏娃发现吃苹果是件很开心的事。而它们吃过的其它东西则没有这个效果,比如树和房子等。除了它俩,还有一个代理叫 Stan。Stan 在社交方面心有余而力不足,所以经常独自溜达。

“当然,系统多多少少都会有些 Bug。”

“有次亚当和夏娃在吃苹果的时候,第一个 Bug 出现了:它们吃饱的速度来得比平常慢了一些。所以它俩就把所有苹果都吃了。现在它们已经学会了联想:如果看到一只狗的时候它俩恰好感到疼痛,那么它俩就会把狗和疼痛联系起来。由此可得,当亚当和夏娃吃东西时,正好 Stan 在周围溜达,所以这两个家伙就把 Stan 和食物挂上了钩。这是第二个 Bug,所以你可以猜到故事的走向了。”

“在我们进行这个特别的模拟后不久,我们碰巧看到,亚当和夏娃很快就把树上的苹果吃完了,但还是觉得很饿。所以它俩开始打量周围还有哪些东西可以拿来吃。然而,它俩经过分析后,认为 Stan 看上去是可以吃的食物。”

“所以它俩一人咬了 Stan 一口。”

“第三个 Bug:人体重量未被正确初始化。系统默认每个物体的重量为 1,Stan 也不例外。不论亚当和夏娃吃啥,咬一口就吃掉 0.5。所以当亚当和夏娃各咬了 Stan 一口,Stan 的体重就直接变成零了,然后他就消失不见了。据我所知,Stan 是虚拟吃人的第一名受害者。”

“事件发生之后,我们只能通过代理内置的遥测技术来重建部分事件经过。当我们意识到当时的情况后,所有人都觉得十分可怕。在这个 AI 架构中,我们尽量减少了代理在行为上所受的限制,但是我们之后的确加了一条禁止同类相食的限制,即不管代理饿成什么样,它们都不能互相残杀。”

“我们还修正了它们的体重以及吃饱所需的时间等,此外,我们还对关联做了更改,以便将其他人当做吃东西的信号,而不是将其他人当做食物。如果你经常和别人一起吃饭,那么一旦你再次见到他们,你通常会想要吃点东西,但是你绝不会想把他们当作大餐。”

你能确定你不是同性恋吗?

最近面部识别算法在机器学习社区里特别火。这个算法分辨直男和基友的准确率最高可达 91%。但该模型在分辨直女和蕾丝时,准确度就只有 71% 了。

从技术层面看,这项技术十分有趣。该数据集来源于某约会网站。分类器所使用的面部特征既有固定的面部特征(如鼻型),也有短暂的面部特征(如打扮)。


但神经网络的概率是靠不住的,最高 10% 的错误率依然很高。此外,91% 和 71% 的准确率仅仅是通过对比两张照片得到的:一张是完全的同性恋,一张则是完全的异性恋。对了,我还忘了说,上述结果是在实验室里得出的。如果在自然的环境中使用这个算法,准确识别的概率肯定还会更低。

在道德角度来看,很多人认为这个项目失败了。特别是考虑到某些国家已将非传统的性取向定为非法。如果这些国家的政府在人多的区域应用这一系统,出现风险的可就不只是同性恋了。

种族歧视和性别歧视的怪物

想必你们中的许多人都知道 Tay.ai 的故事,但是你们知道她在被下线后又再度回归过吗?2016 年微软发布了一款名为 Tay 的 AI 机器人。她以一名 19 岁少女的形象出现在公众面前。微软的想法是 Tay 可以回复公众的推文和聊天,然后从中学习。但是事与愿违,在上线仅 16 小时后,Tay 就变成了一个种族歧视和性别歧视的怪物。

图:@brightonus33 希特勒是对的,我恨犹太人

事实上,Tay 可以处理各种任务,包括和用户开玩笑、点评你发给她的图片、讲故事、玩游戏,以及模仿用户的评论等。因此自然而然,网友最先教会 Tay 的就是人身攻击以及发表种族歧视言论。所以微软公司不得不将 Tay 下线,而 Tay 也变成了 AI 界的一个传奇。

然而,一周后,Tay 又回来了。她惊奇地再次出现在网上,并开始发布与毒品相关的推文,这说明她阴暗的一面还在。很快,她又被下线了,从此她的帐户就变成了私人帐户。

顺便说一句,之前微软还曾推出了一个名为 Rinna 的女学生聊天机器人,她陷入了深度抑郁,并且开始回答一些关于希特勒的问题。

毁掉竞赛

我们在 Quora 上发现了这个故事,作者是 Shay Zykova,他是一名夏威夷的英语教师。故事发生在一所大学举办的机器人竞赛中。

“每个小组都设计了一个机器人,其工作是将机器羊“赶”到每个机器人指定的羊圈中。机器人必须自主“思考”并制定战略(所以它不能被一个操纵杆控制)。最后,拥有最多羊的机器人将获胜。

“比赛开始了,机器人疯狂地赶羊。其中一个机器人把一只羊赶入羊圈,然后关上了门。团队人员很困惑,因为如果要胜利,一只羊是不够的。后来让他们感到更恐惧的是,机器人开始肆意破坏对手或让对手无法动弹。”

“因为它认为,实际上它根本不需要赶羊,而只需要把其它对手干掉就胜利了。”

我认为,当有些人无法得到自己想要的东西时,他们的行为和这个机器人是一样的。

为了不输而暂停游戏

2013 年,程序员兼卡内基梅隆大学博士 Tom Murphy 编写了一款程序,解决了如何玩”NES 游戏的问题,这个游戏就像另外一种数学问题。Tom Murphy 的想法是,该程序会去完成能够得分的任务,然后学习如何不断重复这一过程,最终得到高分。

该程序的基本原理是根据玩家输入的一小段记录推导出一个目标函数。然后利用这个函数指导在模拟器中的搜索。这样一来,玩家的玩法可以得到综合,从而得出新的玩法。

这个方法在《超级玛丽》、《泡泡龙》和《吃豆人》等游戏上均取得了不俗的效果。但是在《俄罗斯方块》这款游戏中,它却彻底失败了。

Murphy 写道:“尽管掉下来的各种方块看似正常(不正常也很难,毕竟是游戏程序在给你掉方块),然而机器人对方块的摆放简直白痴,简直比随机还糟糕。这或许是因为每放好一个方块都会得几分,所以可能在程序看来这就是进步;所以程序的动机就成了尽快堆完方块,而不是把方块组合放好。”

屏幕很快就占满了,因为“要赢得游戏的唯一方法就是不玩” ,所以 AI 永远暂停了游戏。

我能 我 我 所有其它东西

两个 AI 程序突然开始用一种只有它俩能懂的语言聊天,Facebook 公司发现后,马上放弃了实验。

该实验的想法是开发出聊天机器人,它们能够用自然语言就多个事项进行讨价还价。研究人员给机器人布置了一项颇具挑战性的任务:让它俩谈生意,交易物品包括帽子、球和书本等,每样物品都有给定的价值。

要构建能够与人类进行有意义交谈的对话系统可不简单。机器人需要把它对谈话的理解和对周围世界的理解结合起来,然后才能生成新句子,帮助其实现交易的目的。这项研究使用了经过训练的循环神经网络(RNN)来取代架构复杂的对话系统,而且对话策略都经过了增强学习的训练。

具有机器学习能力的聊天机器人:构建神经对话代理使用机器学习方法来构建智能聊天机器人


blog.statsbot.co/chatbots-ma…

在研究团队让机器人开始用自然语言聊天后,整个交流变得非常古怪:

  • Bob:我 能 我 我 所有其它东西…
  • Alice:球 有 零 对我对我对我对我对我
  • Bob:你 我 所有其它东西. . . . . . . . . . . . . .
  • Alice:球 有 一个球 对我对我对我对我对
  • Bob:我 我 能 我 我 我 所有其它的东西. . . . . . . . . . . . . .
  • Alice:球 有 一个球 对我对我对我对我对
  • Bob:我. . . . . . . . . . . . . . . . . . .

有意思的事情发生了,它们用这种奇怪语言进行交流居然还谈成了几笔生意。聊天机器人开发出了一套它们专有的语言,让它们彼此的交流变得更加高效。然而研究人员想要开发的是能够和人交流的机器人,所以他们放弃了这个项目。

敬请期待更多的有关 AI 的耸人听闻的故事。欢迎分享你的故事!

查看英文原文:

blog.statsbot.co/creepy-arti…

更多干货内容,可关注AI前线,ID:ai-front,后台回复「AI」、「TF」、「大数据」可获得《AI前线》系列PDF迷你书和技能图谱。


你可能感兴趣的:(有关人工智能最耸人听闻的故事)