ML18-自然语言处理

自然语言处理

用途

ML18-自然语言处理_第1张图片

深度学习

深度学习的基础模型就是神经网络。根据模型进行优化,右边就是优化过程`。
ML18-自然语言处理_第2张图片
为什么要进行深度学习。
相对于普通的机器学习算法来说,它具有下面这些优点。
ML18-自然语言处理_第3张图片

语言模型

实例
ML18-自然语言处理_第4张图片
ML18-自然语言处理_第5张图片
存在问题
ML18-自然语言处理_第6张图片

N-Gram模型

N的取值就是看这个词的出现依赖钱买你多少词。
ML18-自然语言处理_第7张图片
第二个表格就是,当i出现时i,want,to…等出现的次数(i后边接着(want\to\eat)的次数)。,由此可以计算出第三个表格中的概率值及i后面出现want的次数是827,i出现总词数是2533,所以i后面出现want的概率为827/2533,算出来就是第三个表格对应的0.33.
ML18-自然语言处理_第8张图片
参数规模
ML18-自然语言处理_第9张图片

词向量

相近意思的词用词向量表示应该也是相近的。
ML18-自然语言处理_第10张图片
对于两种语言构建出来的词向量应该是类似的,右边是西班牙语。
ML18-自然语言处理_第11张图片

神经网络模型

ML18-自然语言处理_第12张图片
ML18-自然语言处理_第13张图片
优势
ML18-自然语言处理_第14张图片
因为词向量类似,所以会把这几个句子看所是一个句子将所有句子的出现次数加起来,看作是一个句子出现的次数。
ML18-自然语言处理_第15张图片

Hierarchical Softmax

神经网络两种实现模型。
CBOW就是输入几个词(上下文)然后经过一系列层预测出当前这一个词是什么。
Kkip-gram正好相反,输入是当前这个词,然后预测他的上下文。
ML18-自然语言处理_第16张图片
CBOW
ML18-自然语言处理_第17张图片
哈夫曼树。可以将权值看作词语出现的次数。
ML18-自然语言处理_第18张图片
构造过程。可以进行编码。
ML18-自然语言处理_第19张图片
逻辑回归-sigmoid函数来决定走哪个分支。
ML18-自然语言处理_第20张图片

CBOW

输入词向量(每个大小为m维),在投影层将n-1个m维向量合在一起,然后进行求和。
不断更新的是词向量和参数值。
ML18-自然语言处理_第21张图片
ML18-自然语言处理_第22张图片
输入上下文,希望得到足球这个结果的概率是最大的。假设往右走是正例,往左走是负例,想要达到足球,要经过负例、正例、正例和负例;然后将这些概率值乘起来。
ML18-自然语言处理_第23张图片

CBOW求解目标

使用似然函数求解,为了好求结果,使用对数似然函数。使用参数上角标来判断是正例还是负例,d=0时,表示正例,那后面部分就为1。后边的化简就是log(a*b)=log(a)+log(b).
ML18-自然语言处理_第24张图片
梯度上升
化简得到更新表达式。因为是梯度上升,所以每次加上一个步长。
ML18-自然语言处理_第25张图片
ML18-自然语言处理_第26张图片

负采样

ML18-自然语言处理_第27张图片

ML18-自然语言处理_第28张图片

ML18-自然语言处理_第29张图片
ML18-自然语言处理_第30张图片
ML18-自然语言处理_第31张图片

你可能感兴趣的:(机器学习,自然语言处理,机器学习,人工智能)