1、感知神经网络
构造方法:
<span style="font-size:18px;">net=newp(PR,S,TF,LF)</span>PR:表示R*2矩阵,表示数据的大小范围,minmax函数就可以
S:表示神经元个数,主要表示隐含层和输出层神经元的个数,一般是个向量
TF:表示传递函数,一般默认hardlim
LF:表示学习函数,一般默认不用写
训练方法:
<span style="font-size:18px;">net=train(net,P,T)</span>
主要作用:
主要用于分类
2、线性神经网络
构造方法:
<span style="font-size:18px;">net=newlin(P,S,ID,LR)</span>PR=:表示数据
S:表示神经元个数,主要表示隐含层和输出层神经元的个数,一般是个向量
ID:表示延迟向量
LR:表示学习速率
训练方法:
<span style="font-size:18px;">net=train(net,P,T)</span>
主要作用:
主要用于分类、回归、预测
3、BP神经网络
构造方法:
<span style="font-size:18px;">net=newff(P,T,S,{TF...},。。。)</span>P:表示数据
T:表示数据的输出
S:表示神经元个数,主要表示隐含层和输出层神经元的个数,一般是个向量
TF:表示传递函数,各个隐含层的传递函数
训练方法:
<span style="font-size:18px;">net=train(net,P,T)</span>
主要作用:
主要用于分类、回归、预测。
4、径向基函数网络
构造方法:
<span style="font-size:18px;">net=newrb(P,T,Goal,spread,MN,DF)</span>P:表示数据
T:表示数据的输出
goal:表示均方误差
spread:表示径向基函数的扩展速度
MN:表示神经元最大数目
DF:表示两次显示之间所以添加的神经元数目
训练方法:
<span style="font-size:18px;">net=train(net,P,T)</span>
主要作用:
主要用于分类、回归、预测。
构造方法:
<span style="font-size:18px;">net=newpnn(P,T,spread)</span>P:表示数据
T:表示数据的输出
spread:表示径向基函数的扩展速度
训练方法:
<span style="font-size:18px;">net=train(net,P,T)</span>
主要作用:
主要用于分类。
6、竞争神经网络构造方法:
<span style="font-size:18px;">net=newc(PR,S,KLR,CLR)</span>
PR:表示R*2矩阵,表示数据的大小范围,minmax函数就可以
S:表示神经元个数,主要表示隐含层和输出层神经元的个数,一般是个向量
KLR:Kohonen学习速率
CLR:Conscience表示
训练方法:
<span style="font-size:18px;">net=train(net,PR)</span>
主要作用:
主要用于分类。
7、自组织特征映射网络构造方法:
<span style="font-size:18px;">net=newsom(P,[D1,D2,D3..],.)</span>
P:表示数据
D1,D2,D3表示特征映射网络的维数
训练方法:
<span style="font-size:18px;">net=train(net,P)</span>
主要作用:
主要用于分类。
8、学习向量化LVQ网络构造方法:
<span style="font-size:18px;">net=newlvq(PR,SL,PC,LR,LF)</span>
PR:表示R*2矩阵,表示数据的大小范围,minmax函数就可以
SL:表示神经元个数,主要表示隐含层和输出层神经元的个数,一般是个向量
PC:表示分类的百分比
LR:学习速率
LF:学习函数
训练方法:
<span style="font-size:18px;">net=train(net,P,T)</span>
主要作用:
主要用于分类。