Deep learning-Lecture 2

*反向传播

*Word representation

*Sequence modeling

*反向传播

Review

Deep learning-Lecture 2_第1张图片

layer 输出关系,从a 到z的关系

Deep learning-Lecture 2_第2张图片

从z到a的关系

Deep learning-Lecture 2_第3张图片

输出层关系

Deep learning-Lecture 2_第4张图片

神经网络公式

Deep learning-Lecture 2_第5张图片

训练集的损失函数

Deep learning-Lecture 2_第6张图片

神经网络的梯度下降

Deep learning-Lecture 2_第7张图片

梯度下降最优化

Deep learning-Lecture 2_第8张图片
image.png
Deep learning-Lecture 2_第9张图片

算法最优化

Deep learning-Lecture 2_第10张图片

神经网络的梯度下降

Deep learning-Lecture 2_第11张图片

正向传播和反向传播

Deep learning-Lecture 2_第12张图片

Chain Rule

Deep learning-Lecture 2_第13张图片

神经网络梯度下降

Deep learning-Lecture 2_第14张图片
Deep learning-Lecture 2_第15张图片

Deep learning-Lecture 2_第16张图片
Deep learning-Lecture 2_第17张图片
Deep learning-Lecture 2_第18张图片
Deep learning-Lecture 2_第19张图片
Deep learning-Lecture 2_第20张图片

Deep learning-Lecture 2_第21张图片
Deep learning-Lecture 2_第22张图片
Deep learning-Lecture 2_第23张图片
Deep learning-Lecture 2_第24张图片
Deep learning-Lecture 2_第25张图片
Deep learning-Lecture 2_第26张图片

*Word representation

文字处理领域:

Knowledge-based representation
Corpus-based representation
from nltk.corpus import wordnet as wn
pandas = wn.synset('pandas.n.01")
hyper = lamda s: s.hypernyms()
list(pandas.closure(hyper))

knowledge-based representation issues: 新词,主观性很强,注释困难,很难计算词与词之间的相似性

基于语料库的表达

^Atomic symbols: one-hot representation

Deep learning-Lecture 2_第27张图片

有相同语义的词都有相似的neighbors

Deep learning-Lecture 2_第28张图片

*Sequence modeling

CNN 用在影像上的信息

RNN 用在自然语言处理上

RvNN

sequence modelling: aggregate information from the input

Method

basic combination: average, sum

neural combination

CNN 擅长考虑local connections

RNN 擅长考虑时间上的信息

RvNN 擅长知道怎么组合,经常用在文字上的处理

你可能感兴趣的:(Deep learning-Lecture 2)