“笨办法”的效能 20190807 晨间日记

图片发自App

这两天孩子的围棋在陪伴的情况下,似乎慢慢走上轨道。在围棋软件里面除了对局之外,也有智能对局的功能,不过这里的智能跟之前李世石和柯洁的对局的AlphaGo还是有很大区别。这个软件里的智能还是初代围棋软件的方式。

围棋从上古伏羲开始传承千年,之前一直觉得计算机要战胜人类是非常遥远的事情。这个跟原来计算机的设计思路有一定关系,原来的想法是由懂得下棋规则的程序员写代码,计算机的水平有上限,这个上限就是编写软件人的水平。即使让柯洁这样的世界第一来写,其实也不能穷尽所有的可能性,因为有些隐形的知识只能在某个场景下才会触发,比如下出“神之一手”。编码相当于在知识的锅里捞,一般这个勺子还是有孔的,所有有大量的东西捞不着,能捞起来变成软件的智能就没有那么高。

现在人工智能进化的程度这么快,很大程度上是因为摆脱了人类棋手的限制,它可以自己学习。其实这个智能说白了就是一种现代的统计方法,先规定一个规则,下这一手棋,对于最后的胜率有多大的影响。其实AlphaGo对于围棋是“知其然,不知其所以然”,它不会去背那么多定式,而是在下了足够多的次数之后,它自己就能知道统计出这个模型下这个棋是什么参数,对于胜率有多大影响。只要数据量够大,模型就越准确,预测的成功率就越高。这其实是一个“笨”办法,但是确实一种“化繁为简”的方式,不一定是效率最高的,确是最有效的。

自然界也是这样,会有很多冗余出现,但是这个物种的进化对不对,漂不漂亮先不管,有一个基本原则——如何能活下来。各个物种八仙过海各显神通,在淘汰的过程中物种其实就是在优化。

【下一步行动】

“笨”办法看似效率不高,但是只要重复的次数够多,时间维度加长之后,大智若愚的效果就会展现出来。

你可能感兴趣的:(“笨办法”的效能 20190807 晨间日记)