乌镇人机大战AlphaGo Master击败柯洁,人工智能将取代人类?

哈哈,已经一年多没冒泡了,有没有人想我哈?这一年多的时间里,我依然保持努力学习,包括学习PHP、Linux、JS之类的各种技术,还有文学、英语等等。前几天还做了一个自己的网站 http://www.yichenxing.com,上面发布的东西包罗万象,欢迎大家来踩踩哦。好了,下面开始今天的议题吧:人工智能将会取代人类?
5月23日,“中国围棋峰会”在乌镇拉开帷幕,备受关注的世界第一棋手柯洁与AlphaGo Master的第一场比赛于10:30正式开始。AlphaGo在实力上有非常明显的优势,基本上掌控着比赛的局面,三盘棋都较为平稳地击败了柯洁。新版AlphaGo摒弃了人类棋谱,只靠深度学习的方式自我学习。

AlphaGo是什么?
AlphaGo 是第一个击败人类职业围棋选手并战胜围棋世界冠军的程序,是围棋史上最具实力的选手之一。2016 年 3 月,在全世界超过一亿观众的关注下,AlphaGo 经过5局对弈,最终以 4 比 1 的总比分战胜了围棋世界冠军李世石,这场比赛成为了人工智能领域的一个重要里程碑。过去曾有专家预测人工智能需要十年的时间才有可能战胜人类职业选手,在这场比赛之后,AlphaGo 凭借其“充满创意而又机智”的下法,跻身围棋界最高职业称号——职业九段行列,成为历史上首个获得这一荣誉的非人类棋手。
近期,AlphaGo的升级版本以”Master/Magister”的称谓与世界顶级的围棋选手进行了60场线上快棋对局,并取得了全胜的出色战绩。
厉不厉害?还有谁?此次人机大战,人类再次大败,人工智能超越人类、取代人类的日子不远了?别急,且让我给你们解读一番吧。
我们先来看一下维基百科对人工智能的解释:人工智能(英语:Artificial Intelligence, AI)亦称机器智能,是指由人工制造出来的系统所表现出来的智能。通常人工智能是指通过普通电脑实现的智能。该词同时也指研究这样的智能系统是否能够实现,以及如何实现的科学领域。
根据这个定义,AlphaGO确实是人工智能的产物,但是它和人类的智能相比,还差十万八千里呢,为什么这么说呢?根据霍华德·加德纳的多元智能理论,人类的智能可以分成包括语言、逻辑、空间、肢体运作、音乐、人际、内省在内的七个范畴。但是AlphaGO仅仅实现了逻辑上的能力,而且仅仅是在围棋上的逻辑运算能力,想让它学会下象棋,DeepMind肯定还得费很大的功夫进行研发,因为AlphaGO所谓的自主学习能力,也只是围棋博弈上的自主学习能力。
所以AlphaGO并不具备语言、空间、肢体动作等人类具备的能力,它不能有说有笑的跟我们谈人生谈理想。你打它骂它,它也不会愤怒反抗,甚至你在它面前激情地XXOO,它也不会有任何反映,因为它完全听不到看不到也不理解究竟发生了什么事情。
既然AlphaGO那么无能、无知,那么Google为什么还要大张旗鼓的搞“人机大战”呢?我们暂且把这个问题抛到后面再说,然后先来谈谈我们大多数人对人工智能的理解。在普通大众眼里,人工智能就是机器能和人一样思考问题,和人一样具有自己的思想意识甚至自我意识。但是我们大多数人对于人工智能的定义并不清楚,Google正是利用我们对于人工智能的误解和好奇心里,大搞人机大战,以吸引全世界的眼球。而在这次比赛中,柯洁的出场费为30万美元,获胜者将获得150万美元的奖金,这也是这次活动最大的开销吧。也就是说Google只花了180万美元,就做一次巨大的广告,成功吸引了全世界的眼球。如果不是告“人机大战”这个机会,要做这么大的一次广告,得花上千万啊!
所以这次人机大战,不过是Google的商业阴谋罢了。计算机旗手战胜人类旗手早已不是什么新鲜的事了,早在1997年,超级计算机深蓝就在象棋上战胜了世界棋王卡斯帕罗夫。当然对计算机来说围棋的复杂度是象棋的指数倍,计算机不能像下象棋一样靠蛮力穷尽所有的可行性,所以不得不说AlphaGO的逻辑能力绝非深蓝可比,这是题外话了。
让我们言归正传吧,人工智能将会取代人类吗?显然在可预见的未来,这依然是不可能实现的。因为目前为止,没有任何人工智能具备完整的人类的智能,也不具备人类与生俱来自我意识和谋求生存的本能。人工智能甚至还几乎完全不能理解自然语言,所以我们看到很多翻译软件,连很多简单的没有感情色彩的句子都没法正确翻译出来,更别说正确翻译带有感情色彩的复杂语句了。
所以说我们普通大众所期待的人工智能,依然是遥不可及的,根本没法实现的。更不用担心人工智能取代人类了。
如果真的有一天,你家里的机器人会偷你的钱,或者要求你给它更多的自由,或者在你们激情的XXOO的时候,它到厨房拿出菜刀威胁你:放开那女孩(帅哥),让我来。。。
我想这时候,不会有任何组织或机构冒出来大张旗鼓的搞发布会,向世界宣布他们的在这方面的成就了。这时有的,大概是各厂商间相互攻击、相互指责吧。因为我们都知道,这时候人类离狼烟四起,战火纷飞的世界不远了,而这一切的罪魁祸首,当然是各自的竞争对手了。

最后让我们再深入了解一下AlphaGO吧:

AlphaGo如何进行训练?
一直以来,围棋就被认为是传统游戏中对人工智能最具挑战性的项目。这不仅仅是因为围棋包含了庞大的搜索空间,更是因为对于落子位置的评估难度已远远超过了简单的启发式算法。
为了应对围棋的巨大复杂性,AlphaGo 采用了一种新颖的机器学习技术,结合了监督学习和强化学习的优势。通过训练形成一个策略网络(policy network),将棋盘上的局势作为输入信息,并对所有可行的落子位置生成一个概率分布。然后,训练出一个价值网络(value network)对自我对弈进行预测,以 -1(对手的绝对胜利)到1(AlphaGo的绝对胜利)的标准,预测所有可行落子位置的结果。这两个网络自身都十分强大,而 AlphaGo将这两种网络整合进基于概率的蒙特卡罗树搜索(MCTS)中,实现了它真正的优势。最后,新版的AlphaGo 产生大量自我对弈棋局,为下一代版本提供了训练数据,此过程循环往复。

AlphaGo 如何决定落子?
在获取棋局信息后,AlphaGo 会根据策略网络探索哪个位置同时具备高潜在价值和高可能性,进而决定最佳落子位置。在分配的搜索时间结束时,模拟过程中被系统最频繁考察的位置将成为 AlphaGo 的最终选择。在经过先期的全盘探索和过程中对最佳落子的不断揣摩后,AlphaGo的搜索算法就能在其计算能力之上加入近似人类的直觉判断。

AlphaGo 的棋风
AlphaGo最强大的地方,并不体现在具体某一手棋或者某个局部变化中,而是它在每一局棋里所展现出来的独特视角。虽然AlphaGo的棋风本身并不容易总结,但是总体来说,AlphaGo更倾向于使用一种自由、开放式的行棋风格。在它的世界里,没有什么先入为主的概念,也没有什么必须要遵守的规则,这让它得以打破常规,发现当前棋局中最高效的一手。

你可能感兴趣的:(人工智能,深度学习,AlphaGo,柯洁,棋峰)