论文阅读--深度学习基础文献

AlphaGo Zero

论文信息:Silver D, Schrittwieser J, Simonyan K, et al. Mastering the game of go without human knowledge[J]. nature, 2017, 550(7676): 354-359.
参考文章:
深入浅析AlphaGo Zero与深度强化学习
AlphaGo Zero论文解析

Attention is all you need

论文信息:Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]//Advances in neural information processing systems. 2017: 5998-6008.
参考文章:
Self-Attention和Transformer
Transformer论文逐段精读【论文精读】-- 李沐视频
白话机器学习-Encoder-Decoder框架

Transformer 抛弃了传统的 CNN 和 RNN,没用循环和卷积,整个网络使用了 Attention 机制组成。Transformer 由 Muiti-Attenion 和 Feed Forward Neural Network 组成。可以将时序信息完全做并行处理。

你可能感兴趣的:(乂段的学习笔记,论文阅读,深度学习,人工智能)