主要参考:
http://blog.csdn.net/songrotek/article/details/51065143
http://blog.csdn.net/songrotek/article/details/50610684
http://studygolang.com/articles/6466
http://www.360doc.com/content/16/0317/09/31057678_542874401.shtml
http://blog.csdn.net/u010165147/article/details/50885325
本文将分析AlphaGo的这篇Nature文章,去解密真人工智能的奥秘!
深度神经网络是AlphaGo的”大脑“,我们先把它当做一个黑匣子,有输入端,也有输出端,中间具体怎么处理先不考虑。那么AlphaGo的”大脑“实际上分成了四大部分:
所以,AlphaGo的“大脑”实际上有四个脑区,每个脑区的功能不一样,但对比一下发现这些能力基本对于人类棋手下棋所需的不同思维,既包含局部的计算,也包含全局的分析。其中的Policy Network用于具体每一步棋的优劣判断,而Value Network则对整个棋局进行形势的判断。
而且很重要的是,AlphaGo提升棋力首先是依靠模仿,也就是基于深度模仿“脑”来进行自我水平的提升。这和人类的学习方式其实是一模一样的。一开始都是模仿别人的下法,然后慢慢的产生自己的下法。
那么这些不同的脑区的性能如何呢?
从上面的分析可以看到AlphaGo的不同“脑区”的强大。具体每个大脑是怎么学习的在之后的小节分析,我们先来看看有了这些训练好的大脑之后AlphaGo是如何下棋的。
在分析AlphaGo是如何下棋之前,我们先来看看一下人类棋手会怎么下棋:
那么,AlphaGo在拥有强大的神经网络”大脑“的基础上采用蒙特卡洛树搜索来获取最佳的落子点,本质上和人类的做法是接近的。
首先是采用蒙特卡洛树搜索的基本思想,其实很简单:
多次模拟未来的棋局,评估每一个走法,然后选择在模拟中被选择次数最多的走法
AlphaGo具体的下棋基本思想如下(忽略掉一些技术细节比如拓展叶节点):
对于当前的棋局,选择一种可能的下一步走法(step1);评估该走法的好坏(step2);进行多次模拟,每一次模拟结束后,考虑之前所有的模拟结果,如果出现同样的走法((s,a)相同),则对Q(s,a)进行取均值操作(step3)
深度模仿“脑”
来预测未来的下一步走法,直到L步。反复循环上面的步骤到n次。然后选择选择次数最多的走法作为下一步(Once the search is complete, the algorithm chooses the most visited move from the root position. )。
分析到这里,大家就可以理解为什么在AlphaGo与Fan Hui的比赛中,有一些AlphaGo的落子并不仅仅考虑局部的战术,也考虑了整体的战略。
知道了AlphaGo的具体下棋方法之后,我们会明白让AlphaGo棋力如此之强的还是在于AlphaGo的几个深度神经网络上。
所以,让我们看看AlphaGo的大脑是怎么学习来的。
AlphaGo的学习依赖于深度学习Deep Learning和增强学习Reinforcement Learning,合起来就是Deep Reinforcement Learning。这实际上当前人工智能界最前沿的研究方向。
以深度模拟“脑”为例。这个实际上是一个12层的神经网络。输入主要是整个棋盘的19*19的信息(比如黑棋的信息,白棋的信息,空着的信息,还有其他一些和围棋规则有关的信息一共48种)。输出要求是下一步的落子。那么Google Deepmind拥有3000万个落子的数据,这就是训练集,根据输出的误差就可以进行神经网络的训练。训练结束达到57%的正确率。也就是说输入一个棋盘的棋局状态,输出的落子有一半以上选择了和人类高手一样的落子方式。从某种意义上讲,就是这个神经网络领悟了棋局,从而能够得到和人类高手一样的落子方法。
接下来的自学成长“脑”采用深度增强学习(deep reinforcement learning)来更新深度神经网络的参数。通过反复和过去的“自己”下棋来获得数据,通过输赢来判断好坏,根据好坏结果计算策略梯度,从而更新参数。通过反复的自学,我们看到自学成长“脑”可以80%胜率战胜深度模仿“脑”,说明了这种学习的成功,进一步说明自学成长“脑”自己产生了新的下棋方法,形成了自己的一套更强的下棋风格。