时间序列预测模型实战案例(十)(CNN-GRU-LSTM)通过堆叠CNN、GRU、LSTM实现多元预测和单元预测

本文介绍

本篇博客为大家讲解的是通过组堆叠CNN、GRU、LSTM个数,建立多元预测和单元预测的时间序列预测模型,其效果要比单用GRU、LSTM效果好的多,其结合了CNN的特征提取功能、GRU和LSTM用于处理数据中的时间依赖关系的功能。通过将它们组合在一起,模型可以同时考虑输入数据的空间和时间特征,以更好地进行预测。本篇实战案例中包括->详细的参数讲解、数据集介绍、模型框架原理、训练你个人数据集的教程、以及结果分析。本篇文章的讲解流程为->

预测类型->多元预测、单元预测

开源代码->文末有完整代码块复制粘贴即可运行

适用人群->时间序列建模的初学者、时间序列建模的工作者

模型框架原理 

首先我们来简单介绍一下本模型所用的框架原理,是为什么能够根据输入来预测出未来的值的,也就是数据的输入数据的输出在我们的模型内部到底经过了一个什么样的处理这样一个过程的讲解。首先我们要知道三个概念,也就是本文所用到的CNN、GRU、LSTM三个主要处理结构,下面我们来简单的进行分别介绍。

CNN

CNN我相信大家都已经非常了解了这里只是简单介绍一下其在时间序列预测也就是在数据是一维(1-D)时候的作用机制。

CNN:在时间序列预测中,CNN可以用于提取时间序列数据中的局部模式或特征。通过卷积操作,CNN可以捕捉时间序列数据中的局部相关性,并通过激活函数的非线性变换,提取出高层次的特征表示。

可以看到其和2-D、3-D时候的作用是一样的主要做到的是一个特征提取的工作,唯一的区别可能就是我们的输入数据是一维的所以他会沿着时间序列顺序执行,下面我们来看一个图片来理解其工作原理。 

总结->这个图片代表着一个stride分别为1、2、4和卷积核=3的1维度卷积处理结果,可以看到其是顺序执行不想2-D、3-D卷积哪样需要换行的操作。 

GRU

门控循环单元(GRU)是一种循环神经网络(RNN)单元,用于处理序列数据。GRU相对于传统的RNN单元具有改进的结构,旨在更好地处理长期依赖关系和消除梯度消失问题。

GRU的结构由以下几个关键单元组成:

  1. 更新门(Update Gate):更新门控制着前一时刻的隐藏状态(或记忆)保留多少信息传递到当前时刻的隐藏状态中。它通过观察当前输入和前一时刻的隐藏状态,决定更新的程度。更新门具有一个范围从0到1的值,其中0表示完全忘记先前的隐藏状态,1表示完全保留先前的隐藏状态。

  2. 重置门(Reset Gate):重置门决定如何使用前一时刻的隐藏状态来刷新当前时刻的隐藏状态。它通过控制前一时刻的隐藏状态在当前时刻的作用程度来帮助模型忘记不重要的信息。通过观察当前输入和前一时刻的隐藏状态,重置门输出一个范围从0到1的值,用于调整隐藏状态的刷新程度。

  3. 候选隐藏状态:候选隐藏状态(Candidate Hidden State)是一个候选的更新后的隐藏状态。它是根据当前输入和重置门的输出计算得到的。候选隐藏状态捕捉了当前输入和过去隐藏状态的相关性,并在一定程度上更新了隐藏状态。

  4. 新的隐藏状态(Updated Hidden State):新的隐藏状态由更新门、候选隐藏状态和前一时刻的隐藏状态组合而成。它被用作当前时刻的隐藏状态,并在下一个时刻传递下去。

总结->GRU的关键点是,它通过更新门控制了有关隐藏状态的信息流动,可以决定保留多少过去的信息。而重置门有助于捕捉当前输入和过去隐藏状态之间的相关性,并在一定程度上刷新隐藏状态。这种门控机制允许GRU更好地处理长期依赖关系,并减轻了梯度消失问题,使其能够更有效地处理序列数据。

下面的图片是一个完整的GRU的结构图片。

LSTM 

LSTM在我之前的博客中以及详细的讲过,如果有需要的可以看我之前的博客,这里只做一个间的回顾和概念介绍。

时间序列预测模型实战案例(三)(LSTM)(Python)(深度学习)时间序列预测(包括运行代码以及代码讲解)

LSTM(长短期记忆,Long Short-Term Memory)是一种用于处理序列数据的深度学习模型属于循环神经网络(RNN)的一种变体,其使用一种类似于搭桥术结构的RNN单元。相对于普通的RNN,LSTM引入了门控机制,能够更有效地处理长期依赖和短期记忆问题,是RNN网络中最常使用的Cell之一,其网络结构如下图。

模型执行流程

上面以及经过了三个主要结构的基本原理和结构,这里主要讲一下在模型中其它的结构如何搭配三个主要的结构(CNN、GRU、LSTM)实现回归问题的解决(时间序列预测就是一个回归问题)

  • 模型的数据输入首先是经过卷积神经网络(CNN)。它从输入数据开始,进行卷积操作,并使用 ReLU 激活函数进行非线性变换。然后对卷积输出进行一个 reshape 操作,将维度重新排列。所有输出被添加到输出列表中,最后使用 `Concat` 操作将它们在维度 2 上连接起来。连接后的结果经过一个 dropout 操作生成最终的特征输出
  • 接下来经过GRU层。首先将堆叠的所有循环单元按顺序连接在一起,并在每个循环单元之后添加一个 dropout 操作,将结果进行输出。
  • 再下面是LSTM层。同样将循环单元按顺序连接在一起,并在每个循环单元之后添加 dropout 操作。这一部分与之前的GRU 类似。
  • 接着是自回归(Autoregressive)组件。它对输入数据 `X` 的每个特征维度分别进行全连接操作,将维度减小到 1
  • 最后定义了预测组件的代码。通过一个全连接层将输入的维度变换为与输入特征向量的维度相同。然后将该输出与自回归组件的输出进行相加,得到最终的模型输出。使用线性回归损失函数计算模型输出与标签的损失。
  • 最终,函数返回损失值,输入数据的名称列表以及标签数据的名称列表。

模型的结构图下->

上述的过程讲述的就是模型中如下的代码流程可以参考着讲解和代码进行阅读。

def sym_gen(train_iter, q, filter_list, num_filter, dropout, rcells, skiprcells, seasonal_period, time_interval):input_feature_shape = train_iter.provide_data[0][1]X = mx.symbol.Variable(train_iter.provide_data[0].name)Y = mx.sym.Variable(train_iter.provide_label[0].name)# reshape data before applying convolutional layer (takes 4D shape incase you ever work with images)conv_input = mx.sym.reshape(data=X, shape=(0, 1, q, -1))################ CNN Component###############outputs = []for i, filter_size in enumerate(filter_list):# pad input array to ensure number output rows = number input rows after applying kernelpadi = mx.sym.pad(data=conv_input, mode="constant", constant_value=0,pad_width=(0, 0, 0, 0, filter_size - 1, 0, 0, 0))convi = mx.sym.Convolution(data=padi, kernel=(filter_size, input_feature_shape[2]), num_filter=num_filter)acti = mx.sym.Activation(data=convi, act_type='relu')trans = mx.sym.reshape(mx.sym.transpose(data=acti, axes=(0, 2, 1, 3)), shape=(0, 0, 0))outputs.append(trans)cnn_features = mx.sym.Concat(*outputs, dim=2)cnn_reg_features = mx.sym.Dropout(cnn_features, p=dropout)################ GRU Component###############stacked_rnn_cells = mx.rnn.SequentialRNNCell()for i, recurrent_cell in enumerate(rcells):stacked_rnn_cells.add(recurrent_cell)stacked_rnn_cells.add(mx.rnn.DropoutCell(dropout))outputs, states = stacked_rnn_cells.unroll(length=q, inputs=cnn_reg_features, merge_outputs=False)rnn_features = outputs[-1] #only take value from final unrolled cell for use later##################### LSTM Component####################stacked_rnn_cells = mx.rnn.SequentialRNNCell()for i, recurrent_cell in enumerate(skiprcells):stacked_rnn_cells.add(recurrent_cell)stacked_rnn_cells.add(mx.rnn.DropoutCell(dropout))outputs, states = stacked_rnn_cells.unroll(length=q, inputs=cnn_reg_features, merge_outputs=False)# Take output from cells p steps apartp = int(seasonal_period / time_interval)output_indices = list(range(0, q, p))outputs.reverse()skip_outputs = [outputs[i] for i in output_indices]skip_rnn_features = mx.sym.concat(*skip_outputs, dim=1)########################### Autoregressive Component##########################auto_list = []for i in list(range(input_feature_shape[2])):time_series = mx.sym.slice_axis(data=X, axis=2, begin=i, end=i+1)fc_ts = mx.sym.FullyConnected(data=time_series, num_hidden=1)auto_list.append(fc_ts)ar_output = mx.sym.concat(*auto_list, dim=1)####################### Prediction Component######################neural_components = mx.sym.concat(*[rnn_features, skip_rnn_features], dim=1)neural_output = mx.sym.FullyConnected(data=neural_components, num_hidden=input_feature_shape[2])model_output = neural_output + ar_outputloss_grad = mx.sym.LinearRegressionOutput(data=model_output, label=Y)return loss_grad, [v.name for v in train_iter.provide_data], [v.name for v in train_iter.provide_label]

数据集介绍

上面简单的介绍了模型的原理,下面的部分就是开始正式的实战讲解了,首先介绍的是我本次实战中举例用到的数据集部分截图如下,其主要预测列为OT列代表的含义是油温

参数讲解

下面我来介绍模型的主要参数,如果你想要使用自己的数据集进行预测,那么这个过程需要自信的看其中一些参数的讲解会涉及到如何替换个人数据集的介绍

首先先列出所有参数后进行讲解,参数如下->

parser = argparse.ArgumentParser(description="CNN-GRU-LSTM for multivariate time series forecasting",formatter_class=argparse.ArgumentDefaultsHelpFormatter)
parser.add_argument('--data-dir', type=str, default='./', help='relative path to input data')
parser.add_argument('--data_name',type=str, default='ETTh1-Test.csv', help='Input Model File Name')
parser.add_argument('--max-records', type=int, default=None, help='total records before data split')
parser.add_argument('--q', type=int, default=24*7, help='number of historical measurements included in each training example')
parser.add_argument('--horizon', type=int, default=4, help='number of measurements ahead to predict')
parser.add_argument('--splits', type=str, default="0.6,0.2", help='fraction of data to use for train & validation. remainder used for test.')
parser.add_argument('--batch-size', type=int, default=128, help='the batch size.')
parser.add_argument('--filter-list', type=str, default="6,12,18", help='unique filter sizes')
parser.add_argument('--num-filters', type=int, default=100, help='number of each filter size')
parser.add_argument('--recurrent-state-size', type=int, default=100, help='number of hidden units in each unrolled recurrent cell')
parser.add_argument('--seasonal-period', type=int, default=24, help='time between seasonal measurements')
parser.add_argument('--time-interval', type=int, default=1, help='time between each measurement')
parser.add_argument('--gpus', type=str, default='', help='list of gpus to run, e.g. 0 or 0,2,5. empty means using cpu. ')
parser.add_argument('--optimizer', type=str, default='adam', help='the optimizer type')
parser.add_argument('--lr', type=float, default=0.001, help='initial learning rate')
parser.add_argument('--dropout', type=float, default=0.2, help='dropout rate for network')
parser.add_argument('--num-epochs', type=int, default=100, help='max num of epochs')
parser.add_argument('--save-period', type=int, default=20, help='save checkpoint for every n epochs')
parser.add_argument('--model_prefix', type=str, default='electricity_model', help='prefix for saving model params')

上面的就是本模型用到的所有参数,下面来分别进行讲解。

CNN-GRU-LSTM模型参数详解
参数名称参数类型参数讲解
1data-dirstr数据数据集的目录,注意不要到具体的文件要都文件的目录名称!
2data-namestr文件的具体名称。
3max-recordsint数据分割之前的总记录数,可以选择仅使用部分数据进行训练和评估,默认为None表示使用全部数据。
4qint每个训练样本中包含的历史测量值的数量
5horizonint预测的未来测量值的数量,默认为4,这个就是你预测未来多少个点的数据
6splitsstr数据集划分的比例,用于训练、验证和测试集的分割,默认为"0.6,0.2",表示60%的数据用于训练,20%用于验证,剩余部分用于测试。
7batch-sizeint一次往模型里输入多少个数据
8filter-liststr这个是CNN的卷积核大小,默认为"6,12,18",表示使用6、12和18的卷积核大小,这个可以根据你数据集的间隔来,如果你觉得你数据集的数据比较平缓可以设置大一点如果比较极端那么设置就小一点,如果你不知道也可以看我末尾推荐的文章里面有详细讲解。
9num-filtersint每个过滤器大小的滤波器数量,默认为100。
10recurrent-state-sizeint每个未滚动展开循环单元中隐藏单位的数量,默认为100。
11seasonal-periodint季节性测量之间的时间间隔,默认为24,表示每24小时进行一次季节性测量。这个数据也很重要就是你数据具有的季节性。这个参数不同的数据集都不一样,如果你想知道如何测量你数据中的季节性、周期性等因素可以看我的其它博客文章的末尾会分享里面有详细的讲解。
12time-intervalint每个测量之间的时间间隔,默认为1。
13gpusstr要使用的GPU列表,例如"0"或"0,2,5",为空表示使用CPU。
14optimizerstr优化器的类型,默认为"adam"。
15lrfloat初始学习率,默认为0.001。
16dropoutfloat网络的dropout率,默认为0.2。
17num-epochsint最大的训练轮数,默认为100。
18svae-periodint每隔n个训练轮保存一次模型检查点,默认为20。
19model-prefixstr保存模型参数的前缀,默认为"electricity_model"。

模型训练

到此为止模型的准备工作以及全部做好了,经过参数的讲解和数据集的准备,可以开始训练模型了。

环境介绍

在正式开始训练之前介绍一下本模型用到的模块版本如下->

python=3.6

mxnet

numpy

pandas

tqdm

训练代码讲解

我们的程序入口代码汇总如下->

if __name__ == '__main__':# parse argsargs = parser.parse_args()args.splits = list(map(float, args.splits.split(',')))args.filter_list = list(map(int, args.filter_list.split(',')))# Check valid argsif not max(args.filter_list) <= args.q:raise AssertionError("no filter can be larger than q")if not args.q >= math.ceil(args.seasonal_period / args.time_interval):raise AssertionError("size of skip connections cannot exceed q")# Build data iteratorstrain_iter, val_iter, test_iter = build_iters(args.data_dir, args.max_records, args.q, args.horizon, args.splits, args.batch_size)# Choose cells for recurrent layers: each cell will take the output of the previous cell in the listrcells = [mx.rnn.GRUCell(num_hidden=args.recurrent_state_size)]skiprcells = [mx.rnn.LSTMCell(num_hidden=args.recurrent_state_size)]# Define network symbolsymbol, data_names, label_names = sym_gen(train_iter, args.q, args.filter_list, args.num_filters,args.dropout, rcells, skiprcells, args.seasonal_period, args.time_interval)Train = True# train cnn modelif Train:module = train(symbol, train_iter, val_iter, data_names, label_names)predict(symbol, train_iter, val_iter, test_iter, data_names, label_names)

下面对其中的代码分别进行讲解!!!

    args = parser.parse_args()args.splits = list(map(float, args.splits.split(',')))args.filter_list = list(map(int, args.filter_list.split(',')))# Check valid argsif not max(args.filter_list) <= args.q:raise AssertionError("no filter can be larger than q")if not args.q >= math.ceil(args.seasonal_period / args.time_interval):raise AssertionError("size of skip connections cannot exceed q")

这一部分就是一些参数的解析部分了,检测参数是否有一些不符合规定的输入,不涉及到代码的流程,没什么好讲的给大家。

# Build data iteratorstrain_iter, val_iter, test_iter = build_iters(args.data_dir, args.max_records, args.q, args.horizon, args.splits, args.batch_size)

这是构建训练集、验证集、测试集的数据加载器,需要注意的是时间序列是以滚动的形式构建数据加载器的。

    # Choose cells for recurrent layers: each cell will take the output of the previous cell in the listrcells = [mx.rnn.GRUCell(num_hidden=args.recurrent_state_size)]skiprcells = [mx.rnn.LSTMCell(num_hidden=args.recurrent_state_size)]

这里是定义GRU和LSTM的地方如果你想要修改其它的RNN单元就可以在这里修改进行其它尝试,毕竟GRU和LSTM以及存在许多年了现在有许多更高效效果更好的RNN单元存在。

    # Define network symbolsymbol, data_names, label_names = sym_gen(train_iter, args.q, args.filter_list, args.num_filters,args.dropout, rcells, skiprcells, args.seasonal_period, args.time_interval)

这一步就是构建网络结构了,其中sym_gen是我们定义的方法。

    Train = True# train cnn modelif Train:module = train(symbol, train_iter, val_iter, data_names, label_names)predict(symbol, train_iter, val_iter, test_iter, data_names, label_names)

进行训练和预测,Train=True时进行训练和预测,Train=False时候只进行预测不训练模型。 

训练模型 

下面我们开始正式的训练,运行程序文件,控制台进行输出如下。

训练完成后,模型会自动保存在该目录下->

 

模型预测

我们进行模型的预测主要观察我们想看的特征列"OT"列预测结果如下。

同时会将所有的结果和真实值输出到控制台并生成csv文件。

 保存到同级目录下的输出结果和折线图如下->

 

结果分析

可以说结果还可以接受,这个模型的设计还是算成功的,当然精度还有待提升,后续的话可以更改一些结构,或者添加一些其它的网络层,这里我们再来展示一下其它几列的预测结果。

PS->需要注意的是我的训练数据只用了三百多条能达到这个精度我还是比较满意的。

LULL特征预测结果如下图->

LUFL特征预测结果如下-> 

 

训练个人数据集所需修改

下面来讲一下训练你个人数据集需要什么修改,其实主要修改的主要是参数部分,大部分的代码Bug我以及修复好了,所以下面来讲一下。

parser.add_argument('--data-dir', type=str, default='./', help='relative path to input data')
parser.add_argument('--data_name',type=str, default='ETTh1-Test.csv', help='Input Model File Name')
parser.add_argument('--q', type=int, default=24*7, help='number of histrical measurements included in each training example')
parser.add_argument('--filter-list', type=str, default="6,12,18", help='unique filter sizes')
parser.add_argument('--seasonal-period', type=int, default=24, help='time between seasonal measurements')
parser.add_argument('--time-interval', type=int, default=1, help='time between each measurement')

这个是模型中需要你修改的参数部分,具体的修改和修改意见我在参数讲解部分以及提到了,大家可以回去参照这修改之后就可以运行该模型训练自己的数据集了。 

项目完整代码分析 

项目的完整代码如下->大家可以进行复制运行即可。 

import argparse
import logging
import math
import os
import matplotlib.pyplot as plt
import mxnet as mx
import numpy as np
import pandas as pd
from tqdm import tqdm# 将matplotlib的日志级别设置为警告级别
mpl_logger = logging.getLogger('matplotlib')
mpl_logger.setLevel(logging.WARNING)
logging.basicConfig(level=logging.DEBUG)# 参数设置部分
parser = argparse.ArgumentParser(description="CNN-GRU-LSTM for multivariate time series forecasting",formatter_class=argparse.ArgumentDefaultsHelpFormatter)
parser.add_argument('--data-dir', type=str, default='./', help='relative path to input data')
parser.add_argument('--data_name', type=str, default='ETTh1-Test.csv', help='Input Model File Name')
parser.add_argument('--max-records', type=int, default=None, help='total records before data split')
parser.add_argument('--q', type=int, default=24 * 7,help='number of histrical measurements included in each training example')
parser.add_argument('--horizon', type=int, default=4, help='number of measurements ahead to predict')
parser.add_argument('--splits', type=str, default="0.6,0.2",help='fraction of data to use for train & validation. remainder used for test.')
parser.add_argument('--batch-size', type=int, default=128, help='the batch size.')
parser.add_argument('--filter-list', type=str, default="6,12,18", help='unique filter sizes')
parser.add_argument('--num-filters', type=int, default=100, help='number of each filter size')
parser.add_argument('--recurrent-state-size', type=int, default=100,help='number of hidden units in each unrolled recurrent cell')
parser.add_argument('--seasonal-period', type=int, default=24, help='time between seasonal measurements')
parser.add_argument('--time-interval', type=int, default=1, help='time between each measurement')
parser.add_argument('--gpus', type=str, default='',help='list of gpus to run, e.g. 0 or 0,2,5. empty means using cpu. ')
parser.add_argument('--optimizer', type=str, default='adam', help='the optimizer type')
parser.add_argument('--lr', type=float, default=0.001, help='initial learning rate')
parser.add_argument('--dropout', type=float, default=0.2, help='dropout rate for network')
parser.add_argument('--num-epochs', type=int, default=100, help='max num of epochs')
parser.add_argument('--save-period', type=int, default=20, help='save checkpoint for every n epochs')
parser.add_argument('--model_prefix', type=str, default='electricity_model', help='prefix for saving model params')def rse(label, pred):"""computes the root relative squared error (condensed using standard deviation formula)"""numerator = np.sqrt(np.mean(np.square(label - pred), axis=None))denominator = np.std(label, axis=None)return numerator / denominatordef rae(label, pred):"""computes the relative absolute error (condensed using standard deviation formula)"""numerator = np.mean(np.abs(label - pred), axis=None)denominator = np.mean(np.abs(label - np.mean(label, axis=None)), axis=None)return numerator / denominatordef corr(label, pred):"""computes the empirical correlation coefficient"""numerator1 = label - np.mean(label, axis=0)numerator2 = pred - np.mean(pred, axis=0)numerator = np.mean(numerator1 * numerator2, axis=0)denominator = np.std(label, axis=0) * np.std(pred, axis=0)return np.mean(numerator / denominator)def get_custom_metrics():""":return: mxnet metric object"""_rse = mx.metric.create(rse)_rae = mx.metric.create(rae)_corr = mx.metric.create(corr)return mx.metric.create([_rae, _rse, _corr])def evaluate(pred, label):return {"RAE": rae(label, pred), "RSE": rse(label, pred), "CORR": corr(label, pred)}def build_iters(data_dir, max_records, q, horizon, splits, batch_size):"""Load & generate training examples from multivariate time series data:return: data iters & variables required to define network architecture"""# Read in data as numpy arraydf = pd.read_csv(os.path.join(data_dir, "ETTh1-Test.csv"), sep=",", )feature_df = df.iloc[:, 1:].fillna(0).astype(float)x = feature_df.valuesx = x[:max_records] if max_records else x# Construct training examples based on horizon and windowx_ts = np.zeros((x.shape[0] - q, q, x.shape[1]))y_ts = np.zeros((x.shape[0] - q, x.shape[1]))for n in range(x.shape[0]):if n + 1 < q:continueelif n + 1 + horizon > x.shape[0]:continueelse:y_n = x[n + horizon, :]x_n = x[n + 1 - q:n + 1, :]x_ts[n - q] = x_ny_ts[n - q] = y_n# Split into training and testing datatraining_examples = int(x_ts.shape[0] * splits[0])valid_examples = int(x_ts.shape[0] * splits[1])x_train, y_train = x_ts[:training_examples], \y_ts[:training_examples]x_valid, y_valid = x_ts[training_examples:training_examples + valid_examples], \y_ts[training_examples:training_examples + valid_examples]x_test, y_test = x_ts[training_examples + valid_examples:], \y_ts[training_examples + valid_examples:]# build iterators to feed batches to networktrain_iter = mx.io.NDArrayIter(data=x_train,label=y_train,batch_size=batch_size)val_iter = mx.io.NDArrayIter(data=x_valid,label=y_valid,batch_size=batch_size)test_iter = mx.io.NDArrayIter(data=x_test,label=y_test,batch_size=batch_size)return train_iter, val_iter, test_iterdef sym_gen(train_iter, q, filter_list, num_filter, dropout, rcells, skiprcells, seasonal_period, time_interval):input_feature_shape = train_iter.provide_data[0][1]X = mx.symbol.Variable(train_iter.provide_data[0].name)Y = mx.sym.Variable(train_iter.provide_label[0].name)# reshape data before applying convolutional layer (takes 4D shape incase you ever work with images)conv_input = mx.sym.reshape(data=X, shape=(0, 1, q, -1))################ CNN Component###############outputs = []for i, filter_size in enumerate(filter_list):# pad input array to ensure number output rows = number input rows after applying kernelpadi = mx.sym.pad(data=conv_input, mode="constant", constant_value=0,pad_width=(0, 0, 0, 0, filter_size - 1, 0, 0, 0))convi = mx.sym.Convolution(data=padi, kernel=(filter_size, input_feature_shape[2]), num_filter=num_filter)acti = mx.sym.Activation(data=convi, act_type='relu')trans = mx.sym.reshape(mx.sym.transpose(data=acti, axes=(0, 2, 1, 3)), shape=(0, 0, 0))outputs.append(trans)cnn_features = mx.sym.Concat(*outputs, dim=2)cnn_reg_features = mx.sym.Dropout(cnn_features, p=dropout)################ GRU Component###############stacked_rnn_cells = mx.rnn.SequentialRNNCell()for i, recurrent_cell in enumerate(rcells):stacked_rnn_cells.add(recurrent_cell)stacked_rnn_cells.add(mx.rnn.DropoutCell(dropout))outputs, states = stacked_rnn_cells.unroll(length=q, inputs=cnn_reg_features, merge_outputs=False)rnn_features = outputs[-1]  # only take value from final unrolled cell for use later##################### LSTM Component####################stacked_rnn_cells = mx.rnn.SequentialRNNCell()for i, recurrent_cell in enumerate(skiprcells):stacked_rnn_cells.add(recurrent_cell)stacked_rnn_cells.add(mx.rnn.DropoutCell(dropout))outputs, states = stacked_rnn_cells.unroll(length=q, inputs=cnn_reg_features, merge_outputs=False)# Take output from cells p steps apartp = int(seasonal_period / time_interval)output_indices = list(range(0, q, p))outputs.reverse()skip_outputs = [outputs[i] for i in output_indices]skip_rnn_features = mx.sym.concat(*skip_outputs, dim=1)########################### Autoregressive Component##########################auto_list = []for i in list(range(input_feature_shape[2])):time_series = mx.sym.slice_axis(data=X, axis=2, begin=i, end=i + 1)fc_ts = mx.sym.FullyConnected(data=time_series, num_hidden=1)auto_list.append(fc_ts)ar_output = mx.sym.concat(*auto_list, dim=1)####################### Prediction Component######################neural_components = mx.sym.concat(*[rnn_features, skip_rnn_features], dim=1)neural_output = mx.sym.FullyConnected(data=neural_components, num_hidden=input_feature_shape[2])model_output = neural_output + ar_outputloss_grad = mx.sym.LinearRegressionOutput(data=model_output, label=Y)return loss_grad, [v.name for v in train_iter.provide_data], [v.name for v in train_iter.provide_label]def train(symbol, train_iter, val_iter, data_names, label_names):devs = mx.cpu() if args.gpus is None or args.gpus is '' else [mx.gpu(int(i)) for i in args.gpus.split(',')]module = mx.mod.Module(symbol, data_names=data_names, label_names=label_names, context=devs)module.bind(data_shapes=train_iter.provide_data, label_shapes=train_iter.provide_label)module.init_params(mx.initializer.Uniform(0.1))module.init_optimizer(optimizer=args.optimizer, optimizer_params={'learning_rate': args.lr})for epoch in tqdm(range(1, args.num_epochs + 1), desc="Epochs"):train_iter.reset()val_iter.reset()for batch in tqdm(train_iter, desc="Batches", leave=False):module.forward(batch, is_train=True)  # compute predictionsmodule.backward()  # compute gradientsmodule.update()  # update parameterstrain_pred = module.predict(train_iter).asnumpy()train_label = train_iter.label[0][1].asnumpy()print('\nMetrics: Epoch %d, Training %s' % (epoch, evaluate(train_pred, train_label)))val_pred = module.predict(val_iter).asnumpy()val_label = val_iter.label[0][1].asnumpy()print('Metrics: Epoch %d, Validation %s' % (epoch, evaluate(val_pred, val_label)))if epoch % args.save_period == 0 and epoch > 1:module.save_checkpoint(prefix=os.path.join("../models/", args.model_prefix), epoch=epoch,save_optimizer_states=False)if epoch == args.num_epochs:module.save_checkpoint(prefix=os.path.join("../models/", args.model_prefix), epoch=epoch,save_optimizer_states=False)return moduledef predict(symbol, train_iter, val_iter, test_iter, data_names, label_names):devs = mx.cpu() if args.gpus is None or args.gpus is '' else [mx.gpu(int(i)) for i in args.gpus.split(',')]module = mx.mod.Module(symbol, data_names=data_names, label_names=label_names, context=devs)module.bind(data_shapes=train_iter.provide_data, label_shapes=train_iter.provide_label)module.init_params(mx.initializer.Uniform(0.1))module.init_optimizer(optimizer=args.optimizer, optimizer_params={'learning_rate': args.lr})# 加载模型参数params_file = "../models/electricity_model-0100.params"  # 参数文件的路径module.load_params(params_file)# 将模型转换为评估模式test_iter.reset()test_pred = module.predict(test_iter).asnumpy()test_label = test_iter.label[0][1].asnumpy()pre_results = []real_results = []for i in range(len(test_pred)):# 这里你想看那个列的图形就画出那个列的即可pre_results.append(test_pred[i][4])real_results.append(test_label[i][4])print("预测值:", pre_results)print("真实值:", real_results)df = pd.DataFrame({'real': real_results, 'forecast': pre_results})df.to_csv('results.csv', index=False)# 创建一个新的图形plt.figure(figsize=(10, 6))# 绘制预测值曲线,使用蓝色实线plt.plot(pre_results, color='blue', linestyle='-', linewidth=2, label='Predicted')# 绘制真实值曲线,使用红色虚线plt.plot(real_results, color='red', linestyle='--', linewidth=2, label='True')# 添加标题和轴标签plt.title('Predicted vs True Values', fontsize=16)plt.xlabel('Time', fontsize=12)plt.ylabel('Value', fontsize=12)# 添加图例plt.legend(loc='upper left')# 显示网格线plt.grid(True, linestyle='--', alpha=0.5)# 保存图形plt.savefig('line_plot.png')# 显示图形plt.show()print(test_label, test_pred)if __name__ == '__main__':# parse argsargs = parser.parse_args()args.splits = list(map(float, args.splits.split(',')))args.filter_list = list(map(int, args.filter_list.split(',')))# Check valid argsif not max(args.filter_list) <= args.q:raise AssertionError("no filter can be larger than q")if not args.q >= math.ceil(args.seasonal_period / args.time_interval):raise AssertionError("size of skip connections cannot exceed q")# Build data iteratorstrain_iter, val_iter, test_iter = build_iters(args.data_dir, args.max_records, args.q, args.horizon, args.splits,args.batch_size)# Choose cells for recurrent layers: each cell will take the output of the previous cell in the listrcells = [mx.rnn.GRUCell(num_hidden=args.recurrent_state_size)]skiprcells = [mx.rnn.LSTMCell(num_hidden=args.recurrent_state_size)]# Define network symbolsymbol, data_names, label_names = sym_gen(train_iter, args.q, args.filter_list, args.num_filters,args.dropout, rcells, skiprcells, args.seasonal_period,args.time_interval)Train = True# train cnn modelif Train:module = train(symbol, train_iter, val_iter, data_names, label_names)predict(symbol, train_iter, val_iter, test_iter, data_names, label_names)

项目的目录结构如下-> 

全文总结

到此本文已经全部讲解完成了,希望能够帮助到大家,在这里也给大家推荐一些我其它的博客的时间序列实战案例讲解,其中有数据分析的讲解就是我前面提到的如何设置参数的分析博客,最后希望大家订阅我的专栏,本专栏均分文章均分98。

时间序列预测中的数据分析->周期性、相关性、滞后性、趋势性、离群值等特性的分析方法

时间序列预测模型实战案例(八)(Informer)个人数据集、详细参数、代码实战讲解

时间序列预测模型实战案例(七)(TPA-LSTM)结合TPA注意力机制的LSTM实现多元预测

时间序列预测模型实战案例(六)深入理解机器学习ARIMA包括差分和相关性分析

时间序列预测模型实战案例(五)基于双向LSTM横向搭配单向LSTM进行回归问题解决

时间序列预测模型实战案例(四)(Xgboost)(Python)(机器学习)图解机制原理实现时间序列预测和分类(附一键运行代码资源下载和代码讲解)

时间序列预测模型实战案例(三)(LSTM)(Python)(深度学习)时间序列预测(包括运行代码以及代码讲解)

【全网首发】(MTS-Mixers)(Python)(Pytorch)最新由华为发布的时间序列预测模型实战案例(一)(包括代码讲解)实现企业级预测精度包括官方代码BUG修复Transform模型

时间序列预测模型实战案例(二)(Holt-Winter)(Python)结合K-折交叉验证进行时间序列预测实现企业级预测精度(包括运行代码以及代码讲解)

如果大家有不懂的也可以评论区留言一些报错什么的大家可以讨论讨论看到我也会给大家解答如何解决!

最后希望大家工作顺利学业有成!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/134734.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

合肥工业大学数字逻辑实验三

** 数字逻辑 实验报告** ✅作者简介:CSDN内容合伙人、信息安全专业在校大学生🏆 🔥系列专栏 :hfut实验课设 📃新人博主 :欢迎点赞收藏关注,会回访! 💬舞台再大,你不上台,永远是个观众。平台再好,你不参与,永远是局外人。能力再大,你不行动,只能看别人成功!…

yolov8+多算法多目标追踪+实例分割+目标检测+姿态估计(代码+教程)

多目标追踪实例分割目标检测 YOLO (You Only Look Once) 是一个流行的目标检测算法&#xff0c;它能够在图像中准确地定位和识别多个物体。 本项目是基于 YOLO 算法的目标跟踪系统&#xff0c;它将 YOLO 的目标检测功能与目标跟踪技术相结合&#xff0c;实现了实时的多目标跟…

【并发编程-3】线程池

对于多线程来说&#xff0c;new Thread一定是创建了线程&#xff0c;而Runnable只是一个任务&#xff0c;并没有创建新的线程。 所以&#xff0c;Runnable任务要交给线程来执行。 如果对于每个任务都创建一个线程来执行&#xff0c;显然是不合理的。 线程池就是为了复用线程来…

京东按关键词搜索商品列表接口:竞品分析,商品管理,营销策略制定

京东搜索商品列表接口是京东开放平台提供的一种API接口&#xff0c;通过调用该接口&#xff0c;开发者可以获取京东平台上商品的列表数据&#xff0c;包括商品的标题、价格、库存、月销量、总销量、详情描述、图片等信息。 接口的主要作用包括&#xff1a; 市场调研&#xff…

OSPF下的MGRE实验

一、实验要求 1、R1-R3-R4构建全连的MGRE环境 2、R1-R5-R6建立hub-spoke的MGRE环境&#xff0c;其中R1为中心 3、R1-R3...R6均存在环回网段模拟用户私网&#xff0c;使用OSPF使全网可达 4、其中R2为ISP路由器&#xff0c;仅配置IP地址 二、实验拓扑图 三、实验配置 1、给各路…

iPortal如何灵活设置用户名及密码的安全规则

作者&#xff1a;yx 目录 前言 一、配置文件介绍 1、<passwordRules>节点 注意事项&#xff1a; 2、<usernameRules>节点 二、应用实例 1、配置文件设置 2、验证扩展结果 三、结果展示 前言 SuperMap iPortal提供了扩展账户信息合规度校验规则的能力&#…

一名优秀的C++人员是怎么炼成的?

一名优秀的C人员是怎么炼成的? 优秀的程序员都是解决各种bug锻炼出来的&#xff0c;程序员每天的工作大部分时间都是在解决各种bug, 所以说多做项目才是提升能力的唯一途径&#xff0c;要不然就是花架子&#xff0c;各种技术名词、源码整的很溜&#xff0c;一如果不是喜欢 C …

WPF中依赖属性及附加属性的概念及用法

完全来源于十月的寒流&#xff0c;感谢大佬讲解 依赖属性 由依赖属性提供的属性功能 与字段支持的属性不同&#xff0c;依赖属性扩展了属性的功能。 通常&#xff0c;添加的功能表示或支持以下功能之一&#xff1a; 资源数据绑定样式动画元数据重写属性值继承WPF 设计器集成 …

阴虱是怎么长出来的?皮肤性病科主任谭巍讲述五大因素

阴虱&#xff0c;是一种皮肤接触性传染性寄生虫病&#xff0c;在卫生情况不好的前提下有感染阴虱的可能性。人在感染阴虱后会对身心健康带来负面影响&#xff0c;所产生的临床症状会直接影响感染者的工作生活&#xff0c;所以日常应注意预防阴虱病。 然而&#xff0c;到现在还…

AI时代项目经理与架构师的成长之道:ChatGPT让你插上翅膀

&#x1f482; 个人网站:【工具大全】【游戏大全】【神级源码资源网】&#x1f91f; 前端学习课程&#xff1a;&#x1f449;【28个案例趣学前端】【400个JS面试题】&#x1f485; 寻找学习交流、摸鱼划水的小伙伴&#xff0c;请点击【摸鱼学习交流群】 在AI时代&#xff0c;项…

Vue3.0 声明式导航,编程式导航,路由,路由拦截案例

项目结构 App.vue&#xff1a;根组件 <template><div><router-view></router-view><Tabbar></Tabbar></div> </template> <script setup> import Tabbar from ../src/views/Tabbar.vue; //底部选项卡 import Home from…

Android T窗口动画添加移除流程(更新中)

APP侧窗口动画demo 如何创建一个窗口动画&#xff1f;我们通过先从APP创建一个窗口&#xff0c;以这个窗口的创建过程的窗口动画为例 这个demo就是点击BUTTON显示窗口&#xff0c;点击CLOSE WINDOW关闭窗口&#xff0c;下面简述关键代码 //定义WindowManager和LayoutParams…

Go:如何在GoLand中引用github.com中的第三方包

本篇博客主要介绍如何在GoLand中引入github.com中的第三方包。具体步骤如下&#xff1a; 正文 (1) 先在GoLand中打开go的工作区目录(即环境变量$GOPATH设置的变量)。如图&#xff1a; 关于工作区目录中的三个子目录: bin: 保存已编译的二进制可执行程序&#xff1b;pkg: 保…

深度学习之基于Tensorflow卷积神经网络花卉识别系统

欢迎大家点赞、收藏、关注、评论啦 &#xff0c;由于篇幅有限&#xff0c;只展示了部分核心代码。 文章目录 一项目简介 二、功能三、系统四. 总结 一项目简介 深度学习是一种机器学习方法&#xff0c;它通过模拟人脑神经网络的结构和功能来实现对数据的自动分析和学习。卷积神…

SpringCloud——服务网关——GateWay

1.GateWay是什么&#xff1f; gateway也叫服务网关&#xff0c;SpringCloud GateWay使用的是Webflux中的reactor-netty响应式编程组件&#xff0c;底层使用了Netty通讯框架。 gateway的功能有反向代理、鉴权、流量控制、熔断、日志监控...... 2.为什么不使用Zuul&#xff1f…

EasyExcel 导出冻结指定行

导出的实体类 package org.jeecg.modules.eis.test;import com.alibaba.excel.annotation.ExcelProperty; import com.alibaba.excel.annotation.write.style.*; import lombok.Getter; import lombok.Setter; import org.apache.poi.ss.usermodel.HorizontalAlignment;import…

Android Studio代码无法自动补全

Android Studio代码自动无法补全问题解决 在写layout布局文件时&#xff0c;代码不提示&#xff0c;不自动补全&#xff0c;可以采用如下方法&#xff1a; 点击File—>Project Structure&#xff0c;之后如图所示&#xff0c;找到左侧Modules&#xff0c;修改SDK版本号&…

Android笔记:(最全)判断网线是否插入方法

1.通过调用命令: cat /sys/class/net/eth0/carrier1.1在java代码中执行adb命令: private fun execCommand(command: String?): String {val runtime

【算法秘籍】藏在0和1之间的秘密,助你码出优秀人生

《算法秘籍》双十一 5折购书&#xff0c;就在京东商城 数据结构和算法是计算机科学的基石&#xff0c;是计算机的灵魂&#xff0c;要想成为计算机专业人员&#xff0c;学习和掌握算法是十分必要的。不懂数据结构和算法的人不可能写出效率更高的代码。计算机科学的很多新行业都离…

python加上ffmpeg实现音频分割

前言: 这是一个系列的文章,主要是使用python加上ffmpeg来对音视频文件进行处理,包括音频播放、音频格式转换、音频文件分割、视频播放等。 系列文章链接: 链接1: python使用ffmpeg来制作音频格式转换工具(优化版) 链接2:<Python>PyQt5+ffmpeg,简单视频播放器的编写(…