人工智能实践:Tensorflow笔记 Class 2:神经网络优化

目录

2.1 基础知识

​2.2 复杂度学习率

1.复杂度

2.学习率

2.3 激活函数

1.sigmoid函数

2.tanh函数

3.relu函数

4.leaky-relu函数

2.4 损失函数

1.均方误差

2.自定义损失函数

​3.交叉熵损失函数 

4.softmax与交叉熵结合

2.5 缓解过拟合

正则化

2.6 优化器

1.SGD

2.SGDM 

3.Adagrad

4.RMSProp 

5.Adam


2.1 基础知识

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第1张图片2.2 复杂度学习率

1.复杂度

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第2张图片

2.学习率

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第3张图片

2.3 激活函数

1.sigmoid函数

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第4张图片

易产生梯度消失,且输出非0均值,收敛较慢

2.tanh函数

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第5张图片

存在梯度消失

3.relu函数

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第6张图片

4.leaky-relu函数

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第7张图片

总结: 

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第8张图片

2.4 损失函数

即预测值与实际值之间的差值,神经网络的优化目标就是使损失函数最小        

1.均方误差

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第9张图片

2.自定义损失函数

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第10张图片

3.交叉熵损失函数 

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第11张图片

4.softmax与交叉熵结合

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第12张图片

2.5 缓解过拟合

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第13张图片

 人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第14张图片

正则化

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第15张图片 人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第16张图片

2.6 优化器

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第17张图片

一阶动量:与梯度相关的函数

二阶动量:与梯度平方相关的函数 

1.SGD

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第18张图片

2.SGDM 

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第19张图片

3.Adagrad

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第20张图片

4.RMSProp 

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第21张图片

5.Adam

人工智能实践:Tensorflow笔记 Class 2:神经网络优化_第22张图片

你可能感兴趣的:(机器学习,Python,tensorflow,人工智能,神经网络)