【学校课件整理复习使用】人工智能导论(1)01前言02第一章绪论

人工智能围棋程序 AlphaGo
由谷歌(Google)旗下DeepMind公司戴密斯·哈萨比斯领衔的团队开发。其主要工作原理是“深度学习”。
AlphaGo 版本首先基于数千场人类围棋比赛来训练如何学习围棋.
【学校课件整理复习使用】人工智能导论(1)01前言02第一章绪论_第1张图片
【学校课件整理复习使用】人工智能导论(1)01前言02第一章绪论_第2张图片
DeepMind 在《自然》杂志上发表了一篇论文,推出 AlphaGo Zero—人工智能围棋程序的最新版本
AlphaGo Zero 利用新型强化学习完成这样的壮举,在训练过程中它是自己的老师。
该系统的神经网络最初对围棋一无所知,然后它通过将该神经网络与强大的搜索算法结合进行自我对弈。
神经网络在下棋过程中得到调整和更新,来预测棋招和比赛的最终胜者。
无需任何人类知识标注,在历时三天,数百万盘的自我对抗之后,它可以轻松地以 100:0 的成绩击败李世石版本的AlphaGo Lee。

新型强化学习

你可能感兴趣的:(爬虫,Hadoop,人工智能,R语言,操作系统)