基于海鸥算法优化的lssvm回归预测-附代码

基于海鸥算法优化的lssvm回归预测 - 附代码

文章目录

  • 基于海鸥算法优化的lssvm回归预测 - 附代码
    • 1.数据集
    • 2.lssvm模型
    • 3.基于海鸥算法优化的LSSVM
    • 4.测试结果
    • 5.Matlab代码

摘要:为了提高最小二乘支持向量机(lssvm)的回归预测准确率,对lssvm中的惩罚参数和核惩罚参数利用海鸥算法进行优化。

1.数据集

数据信息如下:

data.mat 的中包含input数据和output数据

其中input数据维度为:2000*2

其中output数据维度为2000*1

所以RF模型的数据输入维度为2;输出维度为1。

2.lssvm模型

lssvm请自行参考相关机器学习书籍。

3.基于海鸥算法优化的LSSVM

海鸥算法的具体原理参考博客:https://blog.csdn.net/u011835903/article/details/108830958。

海鸥算法的优化参数为惩罚参数和核惩罚参数。适应度函数为RF对训练集和测试集的均方误差(MSE),均方误差MSE越低越好。
f i n t e n e s s = M S E [ p r e d i c t ( t r a i n ) ] + M S E [ p r e d i c t ( t e s t ) ] finteness = MSE[predict(train)] + MSE[predict(test)] finteness=MSE[predict(train)]+MSE[predict(test)]

4.测试结果

数据划分信息如下: 训练集数量为1900组,测试集数量为100组

海鸥参数设置如下:https://blog.csdn.net/u011835903/article/details/107535864

%% 利用海鸥算法选择回归预测分析最佳的lssSVM参数c&g
%%  海鸥参数设置
% 定义优化参数的个数,在该场景中,优化参数的个数dim为2 。
% 定义优化参数的上下限,如c的范围是[0.01, 1], g的范围是[2^-5, 2^5],那么参数的下限lb=[0.01, 2^-5];参数的上限ub=[1, 2^5]。
%目标函数
fobj = @(x) fun(x,Pn_train,Tn_train,Pn_test,Tn_test); 
% 优化参数的个数 (c、g)
dim = 2;
% 优化参数的取值下限
lb = [0.01,0.01];
ub = [5,5];
%  参数设置
pop =20; %海鸥数量
Max_iteration=5;%最大迭代次数             

基于海鸥算法优化的lssvm回归预测-附代码_第1张图片
基于海鸥算法优化的lssvm回归预测-附代码_第2张图片
基于海鸥算法优化的lssvm回归预测-附代码_第3张图片


SOA-LSSVM优化得到的最优参数为:
SOA-LSSVM优化得到的gama为:5
SOA-LSSVM优化得到的sig2为:0.62518

SOA-LSSVM结果:
SOA-LSSVM训练集MSE:0.055649
SOA-LSSVM测试集MSE:0.025938
LSSVM结果:
LSSVM训练集MSE:0.16558
LSSVM测试集MSE:0.072999

从MSE结果来看,经过改进后的海鸥-LSSVM明显优于未改进前的结果。

5.Matlab代码

你可能感兴趣的:(智能优化算法应用,机器学习,算法,回归)