RNN笔记随写--李沐第十二课

今天看了李沐课程的第十二课,主要学习到了RNN的具体结构,以及弄明白了RNN中隐层的具体作用。

图中的前两行表示的是RNN中的H(隐层)、Y(输出)的具体计算方式
从图中我们可以得出,是先由输入Xt和上个隐层状态Ht-1得到本层的隐层Ht,再由本层的Ht得到本层的输出Yt。

隐层的具体作用我的理解是:循环神经网络使用隐层来记录前面看到的数据来帮助当前预测。

比如图中,在第一个节点输入“你”,然后在预测“好”的时候,同时输出了一个隐层状态H1。我们可以用这个隐层H1和下一个输入“好”来一起预测“世”,在预测“世”的同时输出一个隐层状态。如此循环往复下去

参考地址:https://mp.weixin.qq.com/s?__biz=MzAxMzc2NDAxOQ==&mid=2650365109&idx=3&sn=5b846c0c608f37009ce80b90d8a00de0&chksm=83906869b4e7e17fb901043f611d5964ddb249f3bc5c8fa9ebe6bd411e32e389298607c40775&scene=21#wechat_redirect

你可能感兴趣的:(李沐课程学习)