《MATLAB神经网络30个案例分析》学习记录(待更新):
1. 数据分类,分类——多个输出,向量表示 [1 0 0] [0 1 0] [0 0 1]这样
2. 分线性系统建模,拟合参数,用一定量的输入输出数据训练神经网络即可
3. 遗传算法优化BP神经网络——非线性函数的拟合,神经网络可以看成一个预测函数,而遗传算法优化BP神经网络可以看成是对预测函数的某些参数进行优化,种群的每个个体包含一个网络所有的权值和阈值,把预测输出和期望输出之间的误差绝对值和E作为个体适应度值F
4. 神经网络遗传算法函数极值寻找——我的理解:只不过是优化遗传算法适应度函数的计算,先训练神经网络,训练好后,开始遗传算法部分,计算适应度时,将神经网络的输出结果作为该个体的适应度
5. 基于Ada_Boost的强分类器设计和强预测器设计,在强分类器中增加预测错类别样本的权重,在强预测器中增加预测误差超过阈值样本的权重
6. PID神经元网络解耦控制算法,不是很懂,貌似是优化控制系统,减小控制偏差
7. RBF网络的回归——非线性函数回归的实现,在已知数据,未知函数方程的情况下利用RBF神经网络进行回归拟合曲线,效果不错;RBF网络输入的是隐单元输出的线性加权和,网络学习速率快,但是需要比BP神经网络更多的隐含层神经单元来达到预期的训练目标
8. GRNN的数据预测——基于广义神经网络的货运量预测。BP神经网络在用于函数逼近时,存在收敛速度慢和局部极小等缺点,在解决样本量少而且噪声较多问题时效果不理想。GRNN在逼近能力、分类能力和学习速度方面有优势,在数据缺乏时效果也较好,网络可以处理不稳定的数据。
9. 离散Hopfield神经网络的联想记忆——数字识别,识别数字0-9实际上也就是进行分类;主要是有联想记忆功能,在一定噪声的干扰下还能进行高准确率的识别。将一些优化算法与离散Hopfield神经网络相结合,可以使其联想记忆能力更强,应用效果更为突出。如用遗传算法应用到离散Hopfield神经网络,使其跳出伪稳定点。
10. 离散Hopfield神经网络的分类——高校科研能力评价。
11. 连续Hopfield神经网络的优化——旅行商问题优化计算。
12. SVM的数据分类预测——意大利葡萄酒种类识别。像多层感知机器网络和径向基函数网络一样,可用于模式分类和分线性回归。
13. SVM的参数优化——如何更好地提升分类器的性能。调节相关参数(主要是惩罚参数c和核函数参数g)才能得到比较理想的预测分类准确率。用网络法搜索c和g,模型预测的准确率作为评价标准,选取出最优的c和g。启发式算法参数寻优,遗传算法参数寻优,粒子群优化算法参数寻优。
14. SVM的回归预测分析——上证指数开盘指数预测。拟合1990/12/19至2009/8/19期间内4579个交易日每日上证更综合指数的各种指标,超复杂曲线拟合?
15. SVM的信息粒化时序回归预测——上证指数开盘指数变化趋势和变化空间预测。
16. 自组织竞争网络在模式分类中的应用——患者癌症发病预测。无监督学习。
17. SOM神经网络的数据分类——柴油机故障诊断。神经网络可以学习输入数据的拓扑结构,进行分类,考虑到可以用SPSS,这个就先放一放= =。
18. Elman神经网络的数据预测——电力符合预测模型研究。神经网络可以分为前馈式和反馈式两种基本类型,前馈式网络通过引入隐藏层以及非线性转移函数,具有复杂的非线性映射能力。但前馈式网络的输出仅有当前输入和权矩阵决定,而与网络先前的输出结果无关。反馈式的输入包括有延迟的输入或者输出数据的反馈。对历史数据具有敏感性,能够以任意精度逼近任意非线性映射。
19. 概率神经网络的分类预测——基于PNN的变压器故障诊断。PNN过程简单收敛速度快,BP网络的学习算法收敛速度慢,PNN隐藏层单元的选取要根据经验反复试算得到。
20. 神经网络变量筛选——基于BP的神经网络变量筛选。神经网络包含的自变量即网络输入特征难以预先确定,如果将一些不重要的自变量也引入神经网络,会降低模型的经度,因此选择有意义的自变量特征作为网络输入数据是非常有必要的。BP神经网络是一种前馈式神经网络系统。单层前馈式神经网络只能求解线性可分问题,能够求解非线性问题的网络必须是具有隐层的多层神经网络。神经网络使用MIV方法筛选出对结果有重要影响的自变量。
21. LVQ神经网络的分类——乳腺肿瘤诊断。LVQ(学习向量量化)用于训练竞争层的有监督学习方法的输入前向神经网络。
22. LVQ神经网络的预测——人脸朝向识别。
23. 小波神经网络的时间序列预测——短时交通流量预测。