这是我的第307篇原创文章。
一、引言
单站点单变量输入单变量输出多步预测问题----基于LSTM实现。
单输入就是输入1个特征变量
单输出就是预测出1个标签的结果
多步就是利用过去N天预测未来M天的结果
二、实现过程
2.1 读取数据集
# 读取数据集
data = pd.read_csv('data.csv')
# 将日期列转换为日期时间类型
data['Month'] = pd.to_datetime(data['Month'])
# 将日期列设置为索引
data.set_index('Month', inplace=True)
data:
2.2 划分数据集
# 拆分数据集为训练集和测试集
train_size = int(len(data) * 0.8)
train_data = data[:train_size]
test_data = data[train_size:]# 绘制训练集和测试集的折线图
plt.figure(figsize=(10, 6))
plt.plot(train_data, label='Training Data')
plt.plot(test_data, label='Testing Data')
plt.xlabel('Year')
plt.ylabel('Passenger Count')
plt.title('International Airline Passengers - Training and Testing Data')
plt.legend()
plt.show()
共144条数据,8:2划分:训练集115,测试集29。
训练集和测试集:
2.3 归一化
scaler = MinMaxScaler()
df_for_training_scaled = scaler.fit_transform(train_data.values.reshape(-1, 1))
df_for_testing_scaled = scaler.transform(test_data.values.reshape(-1, 1))
2.4 构造LSTM数据集(时序-->监督学习)
def split_series(series, n_past, n_future):pass# 假设给定过去 10 天的观察结果,我们需要预测接下来的 3 天观察结果
n_past = 10
n_future = 3
n_features = 1
# # 将数据集转换为 LSTM 模型所需的形状(样本数,时间步长,特征数)
X_train, y_train = split_series(df_for_training_scaled,n_past, n_future)
X_train = X_train.reshape((X_train.shape[0], X_train.shape[1],n_features))
y_train = y_train.reshape((y_train.shape[0], y_train.shape[1], n_features))
X_test, y_test = split_series(df_for_testing_scaled,n_past, n_future)
X_test = X_test.reshape((X_test.shape[0], X_test.shape[1],n_features))
y_test = y_test.reshape((y_test.shape[0], y_test.shape[1], n_features))print("trainX Shape-- ",X_train.shape)
print("trainY Shape-- ",y_train.shape)
print("testX Shape-- ",X_test.shape)
print("testY Shape-- ",y_test.shape)
假设给定过去 10 天的观察结果,预测接下来的 3 天观察结果:
取出df_for_training_scaled第【1-10】行第【1】列的10条数据作为X_train[0],取出df_for_training_scaled第【11-13】行第【1】列的3条数据作为y_train[0];
取出df_for_training_scaled第【2-11】行第【1】列的10条数据作为X_train[1],取出df_for_training_scaled第【12-14】行第【1】列的3条数据作为y_train[1];
取出df_for_training_scaled第【103-112】行第【1】列的10条数据作为X_train[102],取出df_for_training_scaled第【113-115】行第【1】列的3条数据作为y_train[102];
依此类推。最终构造出的训练集数量(103)比划分时候的训练集数量(115)少一个12(n_past+n_future-1)。
X_train是一个(103,10,1)的三维数组,三个维度分布表示(样本数量,步长,特征数),每一个样本比如X_train[0]是一个(10,1)二维数组表示(步长,特征数),这也是seq2seq模型每一步的输入。
y_train是一个(103,3,1)的三维数组,三个维度分布表示(样本数量,步长,标签数),每一个样本比如y_train[0]是一个(3,1)二维数组表示(步长,标签数),这也是seq2seq模型每一步的输出。
2.5 建立模拟合模型
encoder_inputs = Input(shape=(n_past, n_features))
encoder_l1 = LSTM(100, return_state=True)
encoder_outputs1 = encoder_l1(encoder_inputs)
encoder_states1 = encoder_outputs1[1:]
decoder_inputs = RepeatVector(n_future)(encoder_outputs1[0])
decoder_l1 = LSTM(100, return_sequences=True)(decoder_inputs,initial_state = encoder_states1)
decoder_outputs1 = TimeDistributed(Dense(n_features))(decoder_l1)
model_e1d1 = Model(encoder_inputs,decoder_outputs1)
model_e1d1.summary()
这是一个多输入多输出的 seq2seq 模型:具有一个编码器层和一个解码器层的序列到序列模型。
进行训练:
reduce_lr = tf.keras.callbacks.LearningRateScheduler(lambda x: 1e-3 * 0.90 ** x)
model_e1d1.compile(optimizer=tf.keras.optimizers.Adam(), loss=tf.keras.losses.Huber())
history_e1d1=model_e1d1.fit(X_train,y_train,epochs=25,validation_data=(X_test,y_test),batch_size=32,verbose=0,callbacks=[reduce_lr])
2.6 进行预测
进行预测,上面我们分析过模型每一步的输入是一个(10,1)二维数组表示(步长,特征数),模型每一步的输出是是一个(3,1)二维数组表示(步长,标签数)
prediction_test = model.predict(testX)
如果直接model.predict(testX),testX的形状是(17,10,1),是一个批量预测,输出prediction_test是一个(17,3,1)的三维数组,prediction_test[0]就是第一个样本未来3天标签的预测结果,prediction_test[1]就是第二个样本未来3天标签的预测结果...
看一下第一个测试集样本的预测情况:
pred_e1d1_0 = pred_e1d1[0]
pred_e1d1_0_T = scaler.inverse_transform(pred_e1d1_0)y_test_0 = y_test[0]
y_test_0_T = scaler.inverse_transform(y_test_0)
预测值(未来3天变量的预测):
真实值(未来3天变量的真值):
作者简介:
读研期间发表6篇SCI数据挖掘相关论文,现在某研究院从事数据算法相关科研工作,结合自身科研实践经历不定期分享关于Python、机器学习、深度学习、人工智能系列基础知识与应用案例。致力于只做原创,以最简单的方式理解和学习,关注我一起交流成长。需要数据集和源码的小伙伴可以关注底部公众号添加作者微信。