姓名:孙泽昕 学号:14020110031
转载自:http://mp.weixin.qq.com/s/1s1ZsbNUh7o9YnGyg1NDvA
原创 2017-12-27 DeepTech深科技
【嵌牛导读】:新年伊始,让我们把目光投向人工智能——刚刚过去的2017年,基础研究领域的硬件、算法提升,与结合产业发展的技术应用,让人工智能发展迎来又一轮高潮。“机器能像人一样思考和行动”拓展了整个社会的想象力边界。在人工智能研究早期,有些科学家非常乐观地认为,随着计算机的普及和CPU计算能力的提高,实现人工智能指日可待。但后来事实证明,人工智能的发展并没有预期的那么美好。
【嵌牛鼻子】:人工智能 AI
【嵌牛提问】:人工智能未来的发展方向会是怎样?
【嵌牛正文】:
随着社会上开始遍布类似“终结者”之类机器人的骇人报道,人工智能领域在 2017 年取得了卓越的进步。例如,一个叫做 “冷扑大师”的机器人选手就能让你在扑克游戏里进退两难。而在现实世界中,机器学习正在被用于改善农业产出,或者扩大医疗的覆盖面等诸多领域。
但是,你最近有和你的智能助理 Siri 或者 Alexa 聊过天吗?如果有的话,你就会知道,尽管有很多企业宣传AI 能做很多事,但其实它们仍然有很多不能做或者不能理解人类的部分。在接下来的下一年里,人工智能的专家们还需要解以下五个棘手的问题。
理解我们的语言
实际上,机器从未能如此轻松地处理我们的语言和文字。Facebook 已经做出了可以为视障人士读出图像内容的描述的 AI,而谷歌则能够帮你简洁快速地回复电子邮件。尽管如此,软件仍然不能真正理解我们的语言以及背后的真实语意。其中任务之一是让机器有一定的常识,来理解现实世界。比如,Facebook 的研究人员正在尝试让机器人软件看一些视频来理解现实世界。而其他的研究人员则是让软件用他们对世界的认知来模仿人类的行为。谷歌一直在尝试提升机器学习人类语言学隐喻修辞的能力。Mitchell 已经用相关系统模拟过机器用一些类比修辞和预存的对人类世界的理解来解释照片中的内容。
模拟试验与现实的差距
机器人在硬件方面已经相对成熟了:你可以用 500 美元买一个手掌大小、配备高清摄像头的无人机。同时搬运货物和能用双腿行走的机器人性能也大有改善。然而问题在于为什么现实生活中这些机器人没有参与进来,帮助我们更好地工作?那是因为当今的机器人缺乏协调他们发达四肢的大脑。
实际上,让机器人完成任何具体的任务都需要给他们特定的编程。通过这样,他们可以学习一些操作,比如在多次失败的尝试之后学会抓取特定物体。但是这个学习过程相对较慢。目前一个可行的方法是让机器人在虚拟世界中接受训练,然后把这些数据转移到真实的机器人体内。尽管这个方法困扰于现实中结果的差距---模拟训练过程学习到的技能在现实场景不能总是被有效地运用进来。
幸运的是现实的差距正在逐步缩小,今年十月谷歌的研究人员报道新的进展,他们在试验机器人在模拟和真实场景下拾取不同物体比如胶带座、玩具、梳子等物体。人工智能在自动驾驶汽车领域的进展同样非常重要。那些在自动驾驶汽车领域角逐的公司让虚拟的汽车在模拟的道路上行驶,以此减少在实际路况下测试所花费的时间和金钱开销。
防止 AI 黑客的攻击
那些管理我们电网、摄像头、手机的软件经常会受到各种安全漏洞的困扰。应用于自动驾驶汽车和自主机器人的软件同样会遭受这样的问题。更严重的是,有证据表明有关机器学习的软件因为复杂性的原因反而引入了更多的攻击途径。
今年,有关研究人员指出,他们可以隐藏某个内置于机器学习系统里的触发器,然后让它在接受特定信号的时候变成邪恶模式。来自纽约大学的研究小组设计了一个在通常情况下能够正常运作的街道识别系统,但是该系统的问题在于它一旦识别出黄色的 Post it 标志就会异常运作。如果把黄色便利贴粘到 Brooklyn 街道的一个停车标志上,系统会自动识别并报告这是一个限速标志。这些看似很小缺陷都可能成为自动驾驶汽车的潜在问题。
在本月一个世界知名的机器学习会议上,研究人员们强调了这种潜在威胁的严重性。在会议上他们讨论了机器欺骗的一些可能方法,比如如何生成与人类手写相仿但是对于机器来说截然不同的数字。比如人类会把某个图形看作是数字 2,然而机器视觉系统却把它当做是 3。研究人员也讨论了应对这种攻击可能有效的防御方法,同时也担心人工智能可能会被当做愚弄人类的工具。
实现比棋类竞技更复杂的规划能力
Alphabet 的围棋选手软件在 2017 年发展迅猛。在五月份,更强大的迭代版本在中国打败了围棋冠军。这个 AI 的研究部门 DeepMind 随后又创立了一个叫 AlphaGo Zerod 的版本,它可以在不需要和人类比赛的情况下训练自己。去年 12 月,该部门又一次升级了 AlphaZero,让它先后学会了下象棋和日本将棋。
Alpha Go 的结果令人意外,但同时也限制了人工智能的局限性。因为尽管国际象棋,将棋和围棋都很复杂,但是这些棋类选手都有相对简单的规则和游戏玩法。这表明了它们在未来确实能够很好的胜任的某些人类职务。但是在生活中大多数情况下,问题的结构远远没有那么规整。
这也是为什么 2017 年 DeepMind 和 Facebook 两公司都开始发展能够玩多人制”星际争霸“游戏的人工智能的原因,虽然到目前为止两公司都没有取得长足发展。因为到目前即使是最好的人工智能玩家也难以和中等水平的人类玩家抗衡。DeepMind 的研究人员 Oriol Vinyals 也说,它们的人工智能玩家缺乏规划和记忆的能力。而这些能力恰恰是规划指挥游戏队伍,预测对手行为并且加以应对的关键。此外,这些技能还能让人工智能更好的协同现实工作,比如运用到办公室场景或者军队指挥中去。2018 年人工智能在星际争霸或者类似游戏的巨大进步可能预示着 AI 未来会有更强大广泛的应用。
教会人工智能来明辨是非
即使在上述领域 AI 没有新进展的情况下,如果把现有技术用于经济和社会学领域也同样会带来翻天覆地的变化。然而正当企业和政府正在大力发展 AI 的时候,一些人难免会担心人工智能和机器学习带来的一些意外或者蓄意伤害。
于本月召开的 NIPS 机器学习大会上,如何在安全和道德准则限定下发展科技成为了会议讨论的重要内容之一。研究人员发现,机器学习系统已经可以开始从我们远不完美的世界里获取数据,进而学会了一些例如对性别有刻板映像印象之类的不好的行为。所以现在有人在研究能够监视人工智能系统内部的运作,并保证他们能够在运用到金融或者医疗领域时能公平地发挥作用。
下一年我们应该就能看到科技公司赋予人工智能以人性的光辉。谷歌、Facebook、微软和其他公司已经开始着手这个问题。同时他们都是一个致力于控制人工智能对社会影响的非盈利组织 Partnership 的成员。当然,很多驱动力也来自于外界的独立组织。一个叫做人工智能伦理管理基金会的慈善项目正在支持麻省理工学院,哈佛大学等研究人工智能运用和社会福利的关系。纽约大学的一个叫 AI Now 的新组织也在进行类似研究。在近期的一个报告里,该组织呼吁各国推广使用黑匣子算法以此来保持司法刑事、社会福利领域的隐私性。
-End-
编辑:Eric 校审:黄珊
参考:
https://www.wired.com/story/as-artificial-intelligence-advances-here-are-five-projects-for-2018/