多维时序 | MATLAB实现PSO-CNN-BiGRU多变量时间序列预测

多维时序 | MATLAB实现PSO-CNN-BiGRU多变量时间序列预测

目录

    • 多维时序 | MATLAB实现PSO-CNN-BiGRU多变量时间序列预测
      • 预测效果
      • 基本介绍
      • 模型描述
      • 程序设计
      • 参考资料

预测效果

3
4
5
6

基本介绍

1.多维时序 | MATLAB实现PSO-CNN-BiGRU多变量时间序列预测;
2.运行环境为Matlab2020b;
3.基于粒子群优化算法(PSO)、卷积神经网络(CNN)和双向门控循环单元网络(BiGRU)的超前24步多变量时间序列回归预测算法;
4.多变量特征输入,单序列变量输出,输入前一天的特征,实现后一天的预测,超前24步预测;
5.通过粒子群优化算法优化学习率、卷积核大小、神经元个数,这3个关键参数,以最小MAPE为目标函数。
6.提供MAPE、RMSE、MAE等计算结果展示。
7.适用领域:
风速预测、光伏功率预测、发电功率预测、碳价预测等多种应用。
使用便捷:
直接使用EXCEL表格导入数据,无需大幅修改程序。内部有详细注释,易于理解。

模型描述

卷积双向门控循环单元是一种深度学习模型,常用于序列数据的处理,其中包括语音识别、自然语言处理、股票预测等。 模型可以同时处理时间序列数据的正向和反向信息,利用门控机制来控制信息的流动,从而提高模型的准确性。在模型中,一个输入数据序列会经过一个卷积层,然后再传入一个双向门控循环单元中。 模型中的门控机制可以控制信息的流动,从而减少梯度消失问题。最终, 模型可以将多个输入序列映射到一个输出序列,用于回归预测。在进行回归预测时,CBGRU 模型需要在最后加上一个全连接层,将 BGRU 输出的结果映射到预测目标的值域上。训练时,可以使用损失函数来计算预测结果与真实结果之间的误差,并使用反向传播算法更新模型的参数。

程序设计

  • 完整源码和数据获取方式:私信博主回复MATLAB实现PSO-CNN-BiGRU多变量时间序列预测
lgraph = connectLayers(lgraph, "seqfold/out", "conv_1");             % 折叠层输出 连接 卷积层输入
lgraph = connectLayers(lgraph, "seqfold/miniBatchSize", "sequnfold/miniBatchSize"); 
                                                                     % 折叠层输出连接反折叠层输入
lgraph = connectLayers(lgraph, "relu_2", "sequnfold/in");            % 激活层输出 连接 反折叠层输入
lgraph = connectLayers(lgraph, "sequnfold", "flip");
lgraph = connectLayers(lgraph, "bigru2", "cat/in2");

%% 参数设置
options = trainingOptions('adam', ...     % Adam 梯度下降算法
    'MaxEpochs', 100,...                  % 最大训练次数
    'MiniBatchSize',64,...                % 批处理
    'InitialLearnRate', 0.001,...         % 初始学习率为0.001
    'L2Regularization', 0.001,...         % L2正则化参数
    'LearnRateSchedule', 'piecewise',...  % 学习率下降
    'LearnRateDropFactor', 0.1,...        % 学习率下降因子 0.1
    'LearnRateDropPeriod', 400,...        % 经过800次训练后 学习率为 0.001*0.1
    'Shuffle', 'every-epoch',...          % 每次训练打乱数据集
    'ValidationPatience', Inf,...         % 关闭验证
    'Plots', 'training-progress',...      % 画出曲线
    'Verbose', false);

%%  训练模型
[net,traininfo] = trainNetwork(p_train, t_train, lgraph, options);

%% 预测
t_sim1 = predict(net, p_train); 
t_sim2 = predict(net, p_test ); 

%%  数据反归一化
T_sim1 = mapminmax('reverse', t_sim1, ps_output);
T_sim2 = mapminmax('reverse', t_sim2, ps_output);

%%  均方根误差
error1 = sqrt(sum((T_sim1' - T_train).^2) ./ M);
error2 = sqrt(sum((T_sim2' - T_test ).^2) ./ N);


%%  相关指标计算
%  R2
R1 = 1 - norm(T_train - T_sim1')^2 / norm(T_train - mean(T_train))^2;
R2 = 1 - norm(T_test  - T_sim2')^2 / norm(T_test  - mean(T_test ))^2;

disp(['训练集数据的R2为:', num2str(R1)])
disp(['测试集数据的R2为:', num2str(R2)])

%  MAE
mae1 = sum(abs(T_sim1' - T_train)) ./ M ;
mae2 = sum(abs(T_sim2' - T_test )) ./ N ;

disp(['训练集数据的MAE为:', num2str(mae1)])
disp(['测试集数据的MAE为:', num2str(mae2)])

%% 平均绝对百分比误差MAPE
MAPE1 = mean(abs((T_train - T_sim1')./T_train));
MAPE2 = mean(abs((T_test - T_sim2')./T_test));

disp(['训练集数据的MAPE为:', num2str(MAPE1)])
disp(['测试集数据的MAPE为:', num2str(MAPE2)])

%  MBE
mbe1 = sum(abs(T_sim1' - T_train)) ./ M ;
mbe2 = sum(abs(T_sim1' - T_train)) ./ N ;

disp(['训练集数据的MBE为:', num2str(mbe1)])
disp(['测试集数据的MBE为:', num2str(mbe2)])

%均方误差 MSE
mse1 = sum((T_sim1' - T_train).^2)./M;
mse2 = sum((T_sim2' - T_test).^2)./N;

disp(['训练集数据的MSE为:', num2str(mse1)])
disp(['测试集数据的MSE为:', num2str(mse2)])

参考资料

[1] https://blog.csdn.net/kjm13182345320/article/details/128577926?spm=1001.2014.3001.5501
[2] https://blog.csdn.net/kjm13182345320/article/details/128573597?spm=1001.2014.3001.5501

你可能感兴趣的:(时间序列,PSO-CNN-BiGRU,CNN-BiGRU,PSO,多变量时间序列预测)