feedforwardnet ():
综述:包含一系列的层次。第一层与网络输入连接。接下来的层次与上一次连接。最后一层产生网络的输出。feedforward网络可以用作输入和输出的映射,只含有一个隐含层的的神经网络可以拟合任意有限的输入输出映射问题。输入的变量有两个可以选择
feedforwardnet(hiddenSizes,trainFcn)
hiddenSizes |
Row vector of one or more hidden layer sizes (default = 10) |
trainFcn |
Training function (default = 'trainlm') |
hiddensizes:指的是隐含层的神经元个数
trainFCn:训练的函数
%---------------------------------------------------
% 指定训练函数
%---------------------------------------------------
% net.trainFcn = 'traingd'; % 梯度下降算法
% net.trainFcn = 'traingdm'; % 动量梯度下降算法
%
% net.trainFcn = 'traingda'; % 变学习率梯度下降算法
% net.trainFcn = 'traingdx'; % 变学习率动量梯度下降算法
%
% (大型网络的首选算法)
% net.trainFcn = 'trainrp'; % RPROP(弹性BP)算法,内存需求最小
%
% (共轭梯度算法)
% net.trainFcn = 'traincgf'; % Fletcher-Reeves修正算法
% net.trainFcn = 'traincgp'; % Polak-Ribiere修正算法,内存需求比Fletcher-Reeves修正算法略大
% net.trainFcn = 'traincgb'; % Powell-Beal复位算法,内存需求比Polak-Ribiere修正算法略大
%
% (大型网络的首选算法)
%net.trainFcn = 'trainscg'; % Scaled ConjugateGradient算法,内存需求与Fletcher-Reeves修正算法相同,计算量比上面三种算法都小很多
% net.trainFcn = 'trainbfg'; % Quasi-NewtonAlgorithms - BFGS Algorithm,计算量和内存需求均比共轭梯度算法大,但收敛比较快
% net.trainFcn = 'trainoss'; % One Step SecantAlgorithm,计算量和内存需求均比BFGS算法小,比共轭梯度算法略大
%
% (中型网络的首选算法)
%net.trainFcn = 'trainlm'; % Levenberg-Marquardt算法,内存需求最大,收敛速度最快
% net.trainFcn = 'trainbr'; % 贝叶斯正则化算法
%
% 有代表性的五种算法为:'traingdx','trainrp','trainscg','trainoss','trainlm'
默认情况下神经网络参数:
层数:1、输出输入:1、
重点是怎么设置各个参数:
参数的设置和newff的一样,应该是所有网络都可以这样设置。
具体的可以去这本书上。下载地址
http://pan.baidu.com/share/link?shareid=954059249&uk=1610854122