Modeling Trajectories with Recurrent Neural Networks阅读准备知识

1. softmax函数:我认为是将输入转化为输出的一个巧妙的函数...

link:http://blog.csdn.net/hejunqing14/article/details/48980321


2. 权重的第二范式(l2-norm):这个第二范式和数据库不一样。在深度学习里,第二范式代表权重的平方||W||2(2是上标)。与之对应的第一范式则是权重绝对值|W|

l1-norm:曼哈顿距离,可以理解为绝对值相加,l1-norm为1的向量图


l2-norm:欧几里得距离。,可以理解为各个分量平方相加:


参考知乎:https://www.zhihu.com/question/29458275

加强版:http://blog.csdn.net/zouxy09/article/details/24971995(反正我还没看完过...deadline要到了。。。)


3. 矩阵W【i,;】:矩阵的第i行的所有列。就像W【:,a:b】表示所有行的第a列到第b列内容

你可能感兴趣的:(Modeling Trajectories with Recurrent Neural Networks阅读准备知识)