人工神经网络定义:由许多简单的并行工作的处理单元组成的系统,功能取决于网络的结构、连接强度及个单元处理方式。
人工神经网络基本功能:联想记忆功能、非线性映射功能、分类与识别功能、优化计算功能、知识处理功能。
人工神经网络结构特点:并行处理、分布式存储、可联性、可塑性。
人工神经网络性能特点:非线性、容错性、非精准性。
人工神经网络低潮:求解非线性需要隐层。
人工神经网络复兴: 网络。
决定人工神经元三要素:节点本身信息处理能力(数学模型)、节点与节点之间连接(拓扑结构)、相互连接强度(通过学习来调整)。
前馈型网络:处理方向:输入层 各隐层 输出层。
反馈型网络:所有节点都有处理功能,每个节点既可从外界接受输入又可向外界输出。
自组织特征映射网:SOM网、SOFM网、kohonen网
学习向量量化:LVQ
对偶传播神经网络:CPN
径向基函数:RBF
误差反向传播:BP
残差网络:ResNet
长短期记忆神经网络:LSTM
递归神经网络:RNN
卷积神经网络:CNN
:前馈无监督学习
感知器:前馈有监督学习
LVQ:前向有监督学习(前两层无监督、最后一层有监督)
MLP、BP、RBF、CNN:前馈网络模型
SOM:无监督学习模型
神经网络学习过程:在外界输入样本刺激下不断改变网络的连接权值乃至拓扑排序,以使网络的输出不能接近期望输出。
神经网络学习本质:对可变权值的动态调整。
神经网络学习规则: 【BP算法是一种学习规则】
自组织学习算法步骤:
1、基于k-均值聚类算法求基函数中心
网络初始化
将输入训练样本按K近邻分组
重新调整聚类中心
2、求解方差
3、计算隐含层及输出层权值
循环神经网络
优点:引入记忆、图灵完备
缺点:长程依赖问题、记忆完备问题、并行能力
梯度爆炸问题:权重衰减、梯度截断
梯度消失问题:改进模型
通过使用自带反馈的神经元处理任意长度的序列
Yolov5 用 CIOV Loss 作为 bounding box 损失
Yolov3/Yolov5 用二元交叉熵损失计算类别概率,目标置信度损失
Yolov3 用多个独立逻辑分类器替换 softmax 函数,以计算输入属于特定标签可能性
Yolov3 思想:通过特征提取网络,对输入图像提取特征 将输入图像分 grid cells 目标落在哪个 grid cell 中就用该 grid cell 来预测目标。
Kolonen 学习算法:初始化 接收输入 寻找获胜神经元 定义优胜领域 调整权值 结果检验
LVQ1 算法:网络初始化 输入向量输入 计算隐含层权值向量与输入向量距离 选择与权值向量距离最小的神经元 更新连接权值 判断是否满足最大迭代次数
LVQ2 算法:(1)~(4)与 LVQ1 算法相同 更新连接权值 判断算法结束
CPN 算法:阶段一:内星权随机赋 0~1 初值 归一化 输入 确定竞争获胜神经元 不设优胜领域,只调整内星权向量 直至下降到 0
阶段二:输入 确定竞争获胜神经元 调整外星权向量 下降为 0
(阶段一用竞争学习算法对输入至隐层内星权向量训练,阶段二用外星学习算法对隐层到输出外星权向量判别)
单层感知器局限:只能解决线性可分问题。
解决办法:引入隐层,变为多层感知器(转移函数:非线性连续函数)
判决域:无隐层:半平面;单隐层:凸域;双隐层:任意复杂形状域
AlexNet:5个卷积层,3个汇聚层、3个全连接层
提高网络性能途径:包含隐层的多层前馈网络、非线性连续转移函数
权值调整三因素决定:学习率、本层输出的误差信号、本层输入信号
单层感知器
模型:单计算节点感知器实际上是一个 M-P 神经元模型
功能:解决线性可分问题
局限性:不能解决线性不可分问题
学习算法:有导师学习
多层感知器
模型:有隐层的多层前馈网络
功能:能够求解非线性问题
局限性:隐层神经元的学习规则尚无所知
多层前馈网能力
非线性映射:存储大量输入输出模式映射关系
泛化能力:未见过非样本输入 正确映射
容错能力:误差对输入输出规律影响很小
归一化:原因:物理意义转以同等重要地位
防止净输入过大使神经元输出饱和
不归一化则数值大绝对误差大,反之亦然
方法:尺度变换、分布变换
标准 BP(Sigmoid 激活函数)
输入输出问题 非线性映射问题 梯度下降迭代求权值
两过程:净输出前向计算、误差反向传播
局限性:误差曲面分布:存在平坦区:误差下降慢、大大增加训练次数,影响收敛速度(原因:各节点净输入过大)
存在多个极小点:易陷入局部最小点
根源:基于误差梯度下降的权值调整规则每一步求解都是基于局部最优
改进 BP(Sigmoid 激活函数)
调整:利用算法 权值调整过程‘走’合适路径(跳出平坦区/局部最小点)
操作:进入平坦区局部最小点进行判断 通过改变参数使权值调整合理
改进:增加动量项:从前一次权值调整量取一部分迭加到本次权值调整量中,动量项反映以前积累的经验,起阻尼作用( 时刻误差梯度下降方向)
自适应调节学习率:自适应改变学习率,根据环境增大或减小( 学习率)
引入陡度因子:设法压缩神经元的净输入,使输出函数转移函数不饱和区(误差曲面存在平坦区域)
自组织神经网络
通过自动寻找样本中内在规律和本质属性(通过竞争学习实现)
竞争学习:相互竞争以求被激活 每时刻只有一个输出神经元被激活
方法:向量归一化
寻找获胜神经元:竞争层所有神经元对应内星权向量均与输入向量相似性比较,最相似判为竞争获胜神经元
网络输出与权值调整:直至学习率衰减到
SOM网:有两层:输入 视网膜;输出 大脑皮层
获胜神经元对其邻近神经元影响由近及远(均不同程度调整权向量)
优胜邻域内调整(开始很大,不断调整,最终半径为零)
功能:保序映射(属性相似位置相邻)数据压缩、特征提取
LVQ网:教师信号对输入样本类别进行规定,克服自组织无监督的分类信息弱点(在竞争网络基础上提出【竞争学习思想、有监督学习思想结合】)
三层:输入层、隐含层、输出层(输入与隐含全连接,输出与隐含不同组相连)【隐含与输出权值固定为】
CPN网:运行过程:竞争产生获胜神经节点 获胜节点外星向量决定输出
RBF
单隐层的三层前向网络
两种模型:正规化网络和广义网络
思想:用RBF作隐单元的“基”构成隐含层空间 输入矢量直接映射隐空间 中心点确定后,映射点确定 隐函输出映射是线性的
基函数选 Green 格林函数(高斯函数为特殊的格林函数)
激活函数采用径向基函数
CGAN(条件 GAN)可使 GAN 无监督算法转变为有监督算法
DCGAN 的生成器和判别器舍弃了 CNN 池化层:判别器保留 CNN 整体架构
生成器将卷积层替换为反卷积层
卷积神经网络(卷积层、池化层)
受生物学感受野机制提出
三个特征:局部连接、权重共享、空间和时间上次采样
趋向:小卷积、大深度、全卷积
有多少张输入图片就有多少个卷积核,有多少输出图片就有多少个神经元
结构:输入层
输出层
隐藏层:卷积层:局部特征提取、训练中参数学习、每个卷积核提取特定模式特征
池化层:降低数据维度避免过拟合、增强局部感受野、提高平稳不变性
全连接层:特征提取到分类的桥梁
卷积过程:覆盖、相乘、求和
局部感知:通过底层的局部扫描获得图像局部特征,然后在高层综合这些特征获取图像全局信息
作用:降低参数数目
权值共享:CNN中每个卷积核里面的参数即权值,原始图片卷积后会得到一副新图片,而新图片中的每个像素都来自同一个卷积核
作用:进一步降低参数数目
池化层:旨在通过降低特征图分辨率来获得具有空间不变性特征(二次提取特征)
作用:减少参数数量:提高计算效率
提高局部平移不变性:大大提高图像分类准确性
降低数据维度:有效避免过拟合
增强网络对输入图像中的小变形、扭曲、平坦的鲁棒性
反向传播:结构:求出结果与期望误差,一层一层返回,计算每层误差,进行权值调整
Why?输入 输出(卷积层、池化层、全连接层),传递产生数据损失,误差产生