麻雀搜索算法是一种较新的智能优化算法,在2020年提出,主要是受麻雀的觅食行为和反捕食行为的启发。算法具有较高的收敛性能与局部搜索能力。
麻雀种群在觅食过程中分为发现者与加入者两部分,分别负责提供种群觅食的方向以及追随并获取食物。当麻雀种群意识到危险时,则会发生反捕食行为并更新种群位置。
关于麻雀搜索算法,建立了六个假设规则,在参考文献中给出,故不作说明。
符号说明
N:最大迭代次数 n:种群大小 PD:发现者数量 SD 感应危险的麻雀数量
ST:安全值 R2:预警值(由随机数产生)
算法实现步骤
步骤一:初始化麻雀种群位置与适应度,N,n,PD,SD,ST参数初值。
步骤二:开始循环,iteration
步骤四:觅食行为,a). 按以下公式更新发现者位置。
X i , j t + 1 = { X i , j t ⋅ exp ( − i a ⋅ N ) if R 2 < S T X i , j t + Q ⋅ L if R 2 ≥ S T X_{i, j}^{t+1}=\left\{\begin{array}{ll} X_{i, j}^{t} \cdot \exp \left(\frac{-i}{a \cdot N}\right) & \text { if } R_{2}Xi,jt+1={Xi,jt⋅exp(a⋅N−i)Xi,jt+Q⋅L if R2<ST if R2≥ST
式中,Q为服从正态分布的随机数,L为单位行向量,a为[0 1]之间的随机数。
步骤五:b). 按以下公式更新加入者位置。
X i , j t + 1 = { Q ⋅ exp ( X wost ′ − X i , j ′ i 2 ) if i > n / 2 X P t + 1 + ∣ X i , j ′ − X P t + 1 ∣ ⋅ A + ⋅ L otherwise X_{i, j}^{t+1}=\left\{\begin{array}{ll} Q \cdot \exp \left(\frac{X_{\text {wost }}^{\prime}-X_{i, j}^{\prime}}{i^{2}}\right) & \text { if } i>n / 2 \\ X_{P}^{t+1}+\left|X_{i, j}^{\prime}-X_{P}^{t+1}\right| \cdot A^{+} \cdot L & \text { otherwise } \end{array}\right. Xi,jt+1={Q⋅exp(i2Xwost ′−Xi,j′)XPt+1+∣∣Xi,j′−XPt+1∣∣⋅A+⋅L if i>n/2 otherwise
式中,Xworst为适应度最低的麻雀位置,A+为只随机包含1与-1两个元素的行向量。
步骤六:反捕食行为,更新麻雀种群的位置。
X i , j t + 1 = { X best t + β ⋅ ∣ X i , j ′ − X best t ∣ if f i > f best X i , j t + K ⋅ ( ∣ X i , j ′ − X worst ′ ∣ ( f i − f worst ) + ε ) if f i = f best X_{i, j}^{t+1}=\left\{\begin{array}{lll} X_{\text {best }}^{t}+\beta \cdot\left|X_{i, j}^{\prime}-X_{\text {best}}^{t}\right| & \text { if } & f_{i}>f_{\text {best}} \\ X_{i, j}^{t}+K \cdot\left(\frac{\left|X_{i, j}^{\prime}-X_{\text {worst}}^{\prime}\right|}{\left(f_{i}-f_{\text {worst}}\right)+\varepsilon}\right) & \text { if } & f_{i}=f_{\text {best}} \end{array}\right. Xi,jt+1=⎩⎨⎧Xbest t+β⋅∣∣Xi,j′−Xbestt∣∣Xi,jt+K⋅((fi−fworst)+ε∣Xi,j′−Xworst′∣) if if fi>fbestfi=fbest
式中,β是服从正态分布的随机数,作用是控制更新位置的步长。K是[-1,1]之间的随机数,fi是个体适应度值。ε是接近0的常数,避免分母为零的情况。
步骤七:更新历史最优适应度(相当于适应度的公告板更新)。
步骤八:执行步骤三到七,当达到最大迭代次数,结束循环。输出最优个体位置与适应度值。
选用麻雀搜索算法SSA优化BP神经网络的初始权重与阈值。选取训练集与测试集整体的均方误差为适应度值。适应度函数值越小,表明训练越准确,且兼顾模型的预测精度更好。
SSA优化BP回归预测流程图设计:
3.1 数据说明
采用身体脂肪含量数据集为例,建立BP回归预测与麻雀搜索算法SSA优化BP的回归预测模型。
3.2 数据格式
样本编号 | features1 | features2 | features3 | … | featuresn | target |
---|---|---|---|---|---|---|
1 | – | – | – | – | – | – |
2 | – | – | – | – | – | – |
… | – | – | – | – | – | – |
n | – | – | – | – | – | – |
3.3 读取数据
%% 数据读取
data=xlsread('数据.xlsx','Sheet1','A1:N252'); %%使用xlsread函数读取EXCEL中对应范围的数据即可
%输入输出数据
input=data(:,1:end-1); %data的第一列-倒数第二列为特征指标
output=data(:,end); %data的最后面一列为输出的指标值
N=length(output); %全部样本数目
testNum=15; %设定测试样本数目
trainNum=N-testNum; %计算训练样本数目
3.4 确定BP神经网络的拓扑结构
a). 输入层和输出层节点使用size函数直接获取。函数用法:[M,N]=size(A),M为A的行数,N为A的列数。size(A,2)得到的是第二个参数N,即列数。
inputnum=size(input,2); %输入层神经元节点个数
outputnum=size(output,2); %输出层神经元节点个数
b). 隐含层节点的确定过程,使用循环来遍历范围内的隐含层节点与训练误差情况。因为要找最小的误差,所以初始化训练误差时,将MSE设置较大的数字,用于在循环中确定最佳的隐含层节点。
%确定隐含层节点个数
%采用经验公式hiddennum=sqrt(m+n)+a,m为输入层节点个数,n为输出层节点个数,a一般取为1-10之间的整数
MSE=1e+5; %初始化最小误差
for hiddennum=fix(sqrt(inputnum+outputnum))+1:fix(sqrt(inputnum+outputnum))+10
3.5 BP与SSA的参数设置
3.5.1 BP神经网络参数
net=newff(inputn,outputn,hiddennum_best,{'tansig','purelin'},'trainlm');% 建立模型
%网络参数配置
net.trainParam.epochs=1000; % 训练次数,设置为1000次
net.trainParam.lr=0.01; % 学习速率,设置为0.01
net.trainParam.goal=0.00001; % 训练目标最小误差,设置为0.0001
net.trainParam.show=25; % 显示频率,设置为每训练25次显示一次
net.trainParam.mc=0.01; % 动量因子
net.trainParam.min_grad=1e-6; % 最小性能梯度
net.trainParam.max_fail=6; % 最高失败次数
3.5.2 麻雀搜索算法SSA初始参数
popsize=30; %初始种群规模
maxgen=50; %最大进化代数
lb=repmat(-3,1,dim); %自变量下限
ub=repmat(3,1,dim); %自变量上限
ST = 0.6;%安全值
PD = 0.7;%发现者占种群的比重,其余的为加入者
SD = 0.2;%感应危险的麻雀所占比重
注:关于优化变量元素个数dim的计算,给出代码的计算公式如下。关于计算过程,请参考我的另一篇博客:3.3 节 遗传算法优化BP权重和阈值的设计
%自变量个数
dim=inputnum*hiddennum_best+hiddennum_best+hiddennum_best*outputnum+outputnum;
3.5.3 适应度函数公式
数学模型为:
F = min ( M S E TrainingSet,TestingSet ) F=\min \left(MSE_{\text {TrainingSet,TestingSet }}\right) F=min(MSETrainingSet,TestingSet )
式中,TraingingSet,TestingSet,分别为训练集和测试集的样本。使用麻雀搜索算法优化后,适应度函数值越小,即均方误差MSE越小,表明训练越准确,且模型的预测精度更好。
计算适应度的代码命令:
fitness=(mse(output_train,train_simu)+mse(output_test,test_simu))/2; %适应度函数选取为训练集与测试集整体的均方误差平均值
3.6 优化后的权重与阈值赋给BP
%矩阵重构
net.iw{1,1}=reshape(w1,hiddennum_best,inputnum); %输入层到隐含层的权值矩阵
net.lw{2,1}=reshape(w2,outputnum,hiddennum_best); %隐含层的阈值向量
net.b{1}=reshape(B1,hiddennum_best,1); %隐含层到输出层的权值矩阵
net.b{2}=reshape(B2,outputnum,1); %输出层的阈值向量
3.7 SSA优化后的BP神经网络训练与仿真预测
%% 优化后的神经网络训练
net=train(net,inputn,outputn);%开始训练,其中inputn,outputn分别为输入输出样本
%% 优化后的神经网络测试
an1=sim(net,inputn_test);
test_simu1=mapminmax('reverse',an1,outputps); %把仿真得到的数据还原为原始的数量级
1 BP各层的神经元个数的确定过程
2 麻雀搜索算法SSA进化曲线
3 麻雀搜索算法SSA优化BP神经网络与BP的预测结果对比
4 预测值和真实值的误差计算对比(MAE、MSE、RMSE、MAPE)
以下介绍了常用的BP神经网络预测和分类代码模型及编写相应的代码,相关模型原理见博客主页。
BP神经网络预测模型 |
---|
BP神经网络预测算法MATLAB代码及其讲解 |
BP时间序列预测算法MATLAB代码 |
遗传算法优化BP神经网络回归预测MATLAB代码及其讲解 |
粒子群算法PSO优化BP神经网络回归预测MATLAB代码 |
布谷鸟搜索算法CS优化BP神经网络回归预测MATLAB代码 |
海鸥优化算法SOA优化BP神经网络回归预测MATLAB代码 |
鲸鱼优化算法WOA优化BP神经网络回归预测MATLAB代码 |
麻雀搜索算法SSA优化BP神经网络回归预测MATLAB代码 |
人工蜂群算法ABC优化BP神经网络回归预测MATLAB代码 |
蚁群算法ACO优化BP神经网络回归预测MATLAB代码 |
原子搜索算法ASO优化BP神经网络回归预测MATLAB代码 |
基于Logistic混沌映射改进的麻雀搜索算法SSA优化BP神经网络回归预测MATLAB代码 |
基于Logistic混沌映射改进的原子搜索算法ASO优化BP神经网络回归预测MATLAB代码 |
基于Sine混沌映射改进的麻雀搜索算法SSA优化BP神经网络回归预测MATLAB代码 |
基于Tent混沌映射改进的麻雀搜索算法SSA优化BP神经网络回归预测MATLAB代码 |
BP神经网络分类及优化算法模型 |
BP神经网络数据分类算法MATLAB代码 |
BP神经网络数据分类的GUI实现 |
遗传算法GA优化BP分类算法MATLAB代码 |
麻雀搜索算法SSA优化BP神经网络分类MATLAB代码 |
蝙蝠算法BA优化BP神经网络分类MATLAB代码 |
Elman神经网络数据分类算法MATLAB代码 |
代码见博客主页