多维时序 | Matlab实现VMD-CNN-BiLSTM变分模态分解结合卷积神经网络结合双向长短期记忆神经网络多变量时间序列预测
目录
- 多维时序 | Matlab实现VMD-CNN-BiLSTM变分模态分解结合卷积神经网络结合双向长短期记忆神经网络多变量时间序列预测
- 预测效果
- 基本介绍
- 程序设计
- 参考资料
预测效果
基本介绍
1.Matlab实现VMD-CNN-BiLSTM变分模态分解结合卷积神经网络结合双向长短期记忆神经网络多变量时间序列预测;
2.运行环境为Matlab2021及以上;
3.输入多个特征,输出单个变量,考虑历史特征的影响,多变量时间序列预测;
4.data为数据集,main1_VMD.m、main2_VMD_CNN_BiLSTM.m为主程序,运行即可,所有文件放在一个文件夹;
5.命令窗口输出R2、MSE、MAE、MAPE和RMSE多指标评价;
VMD-CNN-BiLSTM是一种结合了变分模态分解(VMD)、卷积神经网络(CNN)和双向长短期记忆神经网络(BiLSTM)的模型,用于多变量时间序列预测。这种混合模型充分利用了不同网络结构的优势,提高了预测精度和稳定性。
首先,VMD作为一种信号处理方法,可以有效地将复杂的时间序列信号分解为若干个模态分量,这有助于提取出原始数据中的有用信息和特征。通过VMD处理,可以将原始时间序列转化为更易于处理的模态分量,为后续的预测模型提供更有价值的数据。
接下来,CNN通过卷积操作从输入数据中提取局部特征,这些特征对于捕捉时间序列中的短期模式和周期性规律非常有效。CNN能够自动学习输入数据的空间层次结构,从而生成对预测有用的特征表示。
最后,BiLSTM作为一种强大的序列建模工具,能够捕捉时间序列中的长期依赖关系。与单向LSTM相比,BiLSTM能够同时利用序列的前向和后向信息,从而更全面地理解整个序列的上下文。这使得BiLSTM在处理复杂的时间序列预测问题时具有更高的准确性和稳定性。
将VMD、CNN和BiLSTM结合起来,可以充分利用它们各自的优点,形成一个强大的多变量时间序列预测模型。VMD-CNN-BiLSTM模型首先对原始时间序列进行VMD处理,提取出模态分量;然后利用CNN从模态分量中提取局部特征;最后通过BiLSTM捕捉长期依赖关系并进行预测。这种混合模型能够在多个层次上捕捉时间序列的动态特性,提高预测精度和鲁棒性。
程序设计
- 完整程序和数据获取方式资源处下载Matlab实现VMD-CNN-BiLSTM变分模态分解结合卷积神经网络结合双向长短期记忆神经网络多变量时间序列预测。
%% 清空环境变量
warning off % 关闭报警信息
close all % 关闭开启的图窗
clear % 清空变量
clc % 清空命令行%% 导入数据
res =xlsread('data.xlsx');%% 数据分析
num_size = 0.7; % 训练集占数据集比例num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim; % 输入特征维度%% 划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);f_ = size(P_train, 1); % 输入特征维度%% 数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);% 输入特征sequenceInputLayer([numFeatures,1,1],'name','input') %输入层设置sequenceFoldingLayer('name','fold') %使用序列折叠层对图像序列的时间步长进行独立的卷积运算。% CNN特征提取convolution2dLayer([3,1],16,'Stride',[1,1],'name','conv1') %添加卷积层,64,1表示过滤器大小,10过滤器个数,Stride是垂直和水平过滤的步长batchNormalizationLayer('name','batchnorm1') % BN层,用于加速训练过程,防止梯度消失或梯度爆炸reluLayer('name','relu1') % ReLU激活层,用于保持输出的非线性性及修正梯度的问题% 池化层maxPooling2dLayer([2,1],'Stride',2,'Padding','same','name','maxpool') % 第一层池化层,包括3x3大小的池化窗口,步长为1,same填充方式% 展开层sequenceUnfoldingLayer('name','unfold') %独立的卷积运行结束后,要将序列恢复%平滑层flattenLayer('name','flatten')bilstmLayer(25,'Outputmode','last','name','hidden1') dropoutLayer(0.2,'name','dropout_1') % Dropout层,以概率为0.2丢弃输入fullyConnectedLayer(1,'name','fullconnect') % 全连接层设置(影响输出维度)(cell层出来的输出层) %
参考资料
[1] https://blog.csdn.net/kjm13182345320/category_11799242.html?spm=1001.2014.3001.5482
[2] https://blog.csdn.net/kjm13182345320/article/details/124571691