【荐片】AlphaGo官方纪录片

写在前面:从人类发明语言之后,主要的学习方式就是通过文字。但是,好的视频,尤其是纪录片,却能够通过直观的视觉,给我们更多的代入感。今天就先给大家推荐这一段吧。



alphago的官方纪录片,带你重温2017年那激动人心的时刻。 先简要交代下背景: 英文被称作Go的围棋,是诞生于中国,已经具有三千年历史的一项棋类运动。和它的英文名字一样,其元素和规则非常简单,但是变化却非常多,被称作最复杂的棋类项目。 DeepMind是一家位于伦敦的人工智能初创公司,他的创始人之一杰米斯·哈萨比斯,是英国青少年国际象棋冠军,他打算借助人工智能,在最复杂的棋类项目上扛过机器对抗人类的大旗。 自从1997年IBM的深蓝击败国际象棋世界冠军卡斯帕罗夫之后,科技界一直试图在更复杂的围棋领域用机器挑战人类,但18年过去后,棋力最高的人工智能程序才能达到业余五段的围棋水平。DeepMind决心改变这一现状,在2014年启动了AlphaGo项目(DeepMind也是在这一年被Google收购),他们的信心来自于近几年机器学习和深度学习的飞速发展,使得机器具有了自我学习和进化的能力,至少从表面上看AlphaGo一两年内下的棋局,已经远远超过职业棋手从小到大做下的棋局总数了。

这个纪录片主要的内容,就是AlphaGo和李世石之间的”人机大战“。其中的几个细节颇有看点:

博弈

围棋是一种博弈的游戏,在这个五番棋里,双方都试图把局面搞得很复杂,让对方琢磨不透。职业棋手会通过对方思考的时间长短以及观察对手的反应,来验证自己的这种战术是否成功了。但是这一次,李世石的对面只是帮助落子的黄仁杰博士,每一次落子都是1-2分钟,黄博士更是面无表情,根本无法观察对方的反应。 围棋在古代被称为”手谈“,可以说通过围棋能够实现双方的某种交流,在这个五番棋的比赛中,唯一的交流就是棋谱,或者数据(对机器而言)。

上帝之手

比赛中有两手被反复提及(不剧透了),一个由AlphaGo”创造“,出乎了所有人的意料,但是仔细一分析,这一手将此前大家看不懂的复杂局面变得更明朗了,说明AlphaGo做了一个大局,主导了比赛;此时的AlphaGo有48个TPU(张量处理器,机器学习专用芯片),可以计算50步,所以布下这个局也不奇怪。 另一个,则由李世石创造,出乎了AlphaGo的预料,这一首被古力成为”God Move“。在赛后的复盘中,程序员说这一步发生的概率是十万分之七。而李世石在赛后发布会上说当时只有这个地方可以下。说明,李世石也在从前三局的失败中进行学习,在跟AlphaGo比赛完的两个月内,李世石保持全胜。

人机竞合的魅力

”世纪之战“改变了人工智能,也改变了围棋这项运动。 “看起来不可能战胜机器”,并没有让围棋这项运动失去魅力,却让这项运动有了更高的知名度和广泛参与度。据说,在比赛结束后,围棋的棋盘一度卖断了货。连李世石也表示,AlphaGo的出现,改变了围棋这项运动,他(作为对手的AlphaGo)提供了很多前人没有想过的思路,让围棋有了更多的可能性。说实话,我不懂围棋,在看这个纪录片之前,只在武侠小说里,听说过珍珑棋局,这是个围棋术语,指全局性的巧妙创作,特点在于构思奇巧。而纪录片中的上帝之手,无疑就是现实版的珍珑棋局。也许,随着机器棋手的加入,在机器和人的“同伎压力”下,会产生更多的珍珑棋局。

后续故事

在围棋人机大战总战胜人类,可以说人工智能摘取了智力运动上的“明珠”。 AlphaGo仍在不断迭代,他的下一个版本AlphaMaster,在网络上60比0,战胜了一众专业棋手;然后在乌镇3:0战胜了柯洁,1:0在与人类团体赛中胜出。而且与战胜李世石的具有48个TPU的分布式系统不同,这一版只用了4个TPU的单机系统。

然后,AlphaGo就不屑于跟人类玩了,第三代AlphaGo Zero,基于神经网络完全重新开发,丝毫不依赖人类的经验,只是自己跟自己下,“通过对自我的反思和独有的创造力直接超越人类”。然后AplhaGo zero100:0完胜第一代AlphaGo(胜李世石版本),在跟第二代AlphaGo Master对战中保持90%的胜率。

故事还没有接触,第四代叫做Alpha Zero(注意已经去掉了Go),仍旧使用第三代算法,但是使用更通用的变量,可以应用到其他的棋类项目,包括可能有平局的国家象棋(围棋没有平局)。

但是,这绝不是DeppMind的最终目的。所有研究人工智能的公司,其目标都是研发出通用的人工智能,并能广泛的应用,然后反哺人工智能的算法和模型。

从DeepMind的官网,可以看到通过使用AlphaGo中积累的AI技术,DeepMind帮助谷歌的数据中心降低了40%的能耗(谷歌这钱花的值),Google Assistant中的语音识别技术也使用了DeepMind的卷积神经网络算法。相信在谷歌强大的计算能力和海量数据下,DeepMind会有更好更大的发展。



PS: DeepMind这种通过在特定规则的游戏中训练AI,从而获得自我学习和进化的能力(这有点像协同过滤了)的做法,也得到了很多其他公司的效仿。在围棋领域,就有Facebook、腾讯等公司。还有诸如电竞和其他棋牌领域。大家有兴趣可自行围观。

雷锋网的相关视频汇总贴,汇集了2017年AI领域的一些比较浅显一定的精华,我帮大家简要概括如下:

Libratus:卡耐基梅陇大学人工智能系统,在20天赛程里击败了德州扑克的职业选手,德州扑克背后的不完全信息博弈,与围棋不同的是德州扑克的每一步决策,都是以前所有步骤的条件概率。

OpenAI:在Dota2国际竞标赛现场1V1击败世界顶级玩家,这同样是不依赖与人类经验,完全自主学习进化的有一个例子;

DeepMind的自动化神经网络架构:这个厉害了,联合 CMU 提出一种结合模型结构分层表示的高效架构搜索方法,使用神经网络来设计神经网络,并且超过的人工设计的架构;

地表最强的国际象棋选手:对,就是AlphaZero,同样通过自主学习,击败目前最强的国际象棋机器选手Stockfish(ELO分3300,比人类最高的卡尔森还高500分,意味着胜率95%以上);

当然,少不了AI领域的大拿,吴恩达、李飞飞、谷歌大脑团队以及深度学习之父Geoffrey Hinton。 感兴趣的童鞋请移步2017AI年度视频。

你可能感兴趣的:(【荐片】AlphaGo官方纪录片)