深度学习之负荷分解——LSTM(一对多)任务场景

1.任务场景

以家庭为例,假设该家庭有m种电器和总负荷的曲线,其中,总负荷为y={y_{1},y_{2},...,y_{n}},各个电器的负荷有M_{j}^{i}={m_{1}^{1},m_{2}^{2},...,m_{m}^{n}}(m是电器个数,n是n个时刻)。我们需要通过对总负荷曲线进行分解,识别出该负荷有几种电器同时运行实现。

之前的博客已经用NILMTK的组合优化和因子隐马尔可夫实现过了,因为效果不是很好,考虑用LSTM实现。

2.算法原理

RNN是循环神经网络,与CNN不同,循环神经网络可以很好地处理文本数据变长且有序的输入序列。RNN设计的初衷是解决长距离输入之间的依赖,但是在用基于时间距离的反向传播算法(BPTT)时,会出现神经网络中的梯度消失问题。LSTM(长短时记忆网络)和GRU通过加入门控机制,来弥补梯度消失问题。

遗忘门:损失函数是sigmoid。

记忆门:损失函数是tanh函数,生成候选记忆。

输出门:损失函数是sigmoid。

当输入的序列中没有重要信息时,LSTM的遗忘门的值接近于1,输入门的值接近于0,此时,过去的记忆将会被保存,从而实现长期记忆的功能。当输出的序列中有重要信息时,输入门为1,遗忘门接近于0,这样旧的记忆就会被遗忘,新的重要记忆被重新记忆。

3.理论实现

(1)基于Tensorflow的Keras

首先,建立一个LSTM模型,输入维度是批次大小(batch_size),特征向量值(n_in,vector),因为这里是1对多,因此,n_in应为1。

RepeatVector是如果输入的形状为(None,32),经过添加RepeatVector(3)层之后,输出变为(None,3,32),RepeatVector不改变我们的步长,改变我们的每一步的维数(即:属性长度)

TimeDistributed和Dense一起配合使用,主要应用于一对多,多对多的情况。首先使用TimeDistributed(Dense(8),input_shape = (1,16))把每一步的维度为16变成8,不改变步长的大小,若该层的批输入形状然后(50, 10, 16),则这一层之后的输出为(50, 10, 8)

这里vetor=120,经数据处理之后,时间并非是一秒一个负荷数据。代表每120个时刻的负荷数据构成一组输入变量。

model = Sequential()
model.add(LSTM(150, batch_input_shape=(batch_size, n_in, vector), stateful=True))
model.add(RepeatVector(n_out))
model.add(LSTM(150, return_sequences=True, stateful=True))
model.add(TimeDistributed(Dense(vector, activation='softmax')))
print(model.summary())

(2)基于pytorch

(暂时不会,后期更新)

4.实战

(1)基于Tensorflow的Keras

读取数据redd的功率数据集

import pandas as pd
import numpy as np
import os
from keras.models import Sequential
from keras.layers import LSTM,Dense,TimeDistributed,RepeatVector
import tensorflow as tffrom sklearn.model_selection import train_test_splitdef read_data_all(file_dir):    data = []for parent, dirnames, filenames in os.walk(file_dir):if parent==file_dir:print('父目录')else:for curDir, dirs, files in os.walk(parent):print("当前文件夹:",curDir)
#                fl = open(parent+'/'+'labels.dat','r',encoding='utf-8')
#                for f in fl.readlines():
#                    f = f.split(' ')[1].strip()
#                    labels.append(f)for i in range(len(files)-1):fo = open(parent+'/'+files[i],'r',encoding='utf-8')
#                    fo = pd.DataFrame(fo.readlines(),columns=['1'])#                    channel_1 = fo['1'].str.strip().str.split(' ',expand=True)
#                    channel_1 = channel_1.rename(columns={0:'date',1:'power'})
#                    channel_1['date']=channel_1['date'].astype(int)
#                    channel_1['label']=labels[i]
#                    data = pd.concat([data,channel_1],axis=0)for file in fo.readlines():file = file.strip()file =[float(i) for i in  file.split(' ')]data.append((int(file[0]),file[1],str(i+1),curDir.split('/')[-1]))return data#获取数据
file_dir = 'F:/aayu/负荷分解/low_freq/'
data = read_data_all(file_dir)

选择house_1为训练数据,并进行数据预处理

#选择第一个家庭进行训练
data = pd.DataFrame(data,columns=['date','power','type','house'])
house_1 =data[data['house']=='house_1'] #house_1 = house_1.set_index(['date'])#各个电器时间点拼接
elec_type = list(set(house_1['type'].tolist()))
house = pd.DataFrame()
for i in elec_type:print(i)e = house_1[house_1['type']==i][['date','power']]e = e.rename(columns={'power':i})e = e.set_index(['date'])print(e.shape)house = pd.concat([house,e],axis=1)print(house.shape)#处理缺失
rows = []
for row in house.index[house.isnull().sum(axis=1)>0]:rows.append(row)
house = house.drop(rows,axis=0)
#  for i in list(Udata.columns[Udata.isnull().sum(axis=0)>0]):
#                columnsU.append(i)
house = house.drop(['12'],axis=1)填充1,mains
#house['1'] = house['1'].fillna(house['1'].mean())#将用电量小的电器也做剔除
#columns = house[['3','4','5','6','7','8','9','10','11','13','14','15','16','17','18','19','20']].sum().sort_values(ascending=False)[:5].index
#columns = np.append(columns,['1'])
#columns = np.append(columns,['2'])
#house=house[columns]elec_y = []
elec_X_1= []
elec_X_2= []
for j in range(0,house.shape[0],120):
#        print(j)if j+120>house.shape[0]: #print('data limits')else:
#            print(j)
#            print(len(elec[j:j+3600]))elec_X_1.append((np.array(house[j:j+120][['1']]).T))elec_X_2.append((np.array(house[j:j+120][['2']]).T))elec_y.append((np.array(house[j:j+120][['3','4','5','6','7','8','9','10','11','13','14','15','16','17','18','19']]).T))X = np.array(elec_X_1)
y = np.array(elec_y)

通过sklearn进行数据集划分

X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=42, test_size=0.1) 

使用Keras进行模型训练

batch_size = 2
n_in = 1
vector = 120
n_out = 20model = Sequential()
model.add(LSTM(150, batch_input_shape=(batch_size, n_in, vector), stateful=True))
model.add(RepeatVector(n_out))
model.add(LSTM(150, return_sequences=True, stateful=True))
model.add(TimeDistributed(Dense(vector, activation='softmax')))
print(model.summary())model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])  
model.fit(X_train, y_train, epochs=20, validation_data=(X_test, y_test), batch_size=batch_size)  

5.模型优化

在进行模型训练时,表现性并不好,忽略数据质量的问题,可以考虑进行模型调参。模型调参一般从以下方面进行考虑:

  • 神经网络的层数

  • 每层神经元的个数

  • 如何初始化Weights和biases

  • loss函数选择哪一个

  • 选择何种Regularization?L1,L2

  • Regularization parameter lambda 选择多大合适

  • 激励函数如何选择

  • 是否使用dropout

  • 训练集多大比较合适

  • mini-batch选择多大

  • 学习率多少合适

  • 选择何种梯度下降算法

  • 何时停止Epoch训练

  • 自己模型的超参数

参考资料

keras中TimeDistributed和RepeatVector的解释

Pytorch TimeDistributed 层封装器

keras中使用LSTM实现一对多和多对多

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/466676.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

这是我见过最秀的代码

这么秀的代码,你能写出来吗?技术主管来了都不好使,main函数里第一个函数必须是这个。佛祖保佑版:void godBless(void) { // _ooOoo_ // o8888888o // …

Cortex M3存储器映射

CortexM3存储器系统 宗旨:技术的学习是有限的,分享的精神是无限的。 CM3 只有一个单一固定的存储器映射。这一点极大地方便了软件在各种 CM3 单片机间的移植。 存储空间的一些位置用于调试组件等私有外设,这个地址段被称为“私有外设区”。私…

这些年,NLP常见的预训练模型剖析

“预训练-微调”(pre-training and fine-tune) 已经成为解决NLP任务的一种新的范式。基于预训练语言模型的词表示由于可以建模上下文信息,进而解决传统静态词向量不能建模“一词多义”语言现象的问题。传统的词向量有one-hot(杜热…

Linux Ftrace 使用

Ftrace相关的文章如何利用ftrace精确跟踪特定进程调度信息1、Ftrace 是什么东西?Ftrace是一个直接内置在Linux内核中的跟踪工具。许多发行版在最近的发行版中已经启用了各种各样的Ftrace配置。Ftrace给Linux带来的好处之一是能够看到内核中发生了什么。因此&#xf…

Cortex M3寄存器组

寄存器组 宗旨:技术的学习是有限的,分享的精神是无限的。 1、通用目的寄存器R0~R7 R0-R7 也被称为低组寄存器。所有指令都能访问它们。它们的字长全是 32 位,复位后的初始值是不可预料的。 2、通用目的寄存器 R8-R12 R8-R12 也被称为高组寄…

深度学习-超参数调优

在机器学习中有很多调优的方式机器学习——超参数调优,深度学习中也存在同样的方式,接下来,介绍一下深度学习框架里边的自动调参模块。 1. 基于Tensorflow的Keras tuner 官方教程如下:Introduction to the Keras Tuner | Tens…

Paddle——常见的评估指标

在模型评估过程中,分类、回归、排序问题往往使用不同的指标进行评估。分类问题通常用准确率、召回率、精准率、F1值等指标进行评估;回归问题使用MSE、RMSE、R^2、MAPE等; 1 分类评估原理 1.1 准确率的局限性 我们经常接触的评价指标就是准…

大江大河,随笔观后感

我是「大江大河」的铁粉,非常喜欢这部剧,从这部剧里面能看到生活的一些影子。从这部剧里面也可以看到不同阶层的人们对待生活,对待理想,对待身边的朋友亲人的态度。—— 知乎热论「程开颜为什么输给了杨思申?」程开颜并…

Cortex M3内核架构

CortexM3内核架构 宗旨:技术的学习是有限的,分享的精神是无限的。 1、ARMCortex-M3处理器 Cortex-M3处理器内核是单片机的中央处理单元( CPU)。 完整的基于CM3的MCU还需要很多其它组件。在芯片制造商得到CM3处理器内核的使用授权…

NLP——序列标注之命名实体识别

1.概述 序列标注包括自然语言处理中的分词,词性标注,命名实体识别,关键词抽取,词义角色标注等。解决方案是NN模型(神经网络模型)CRF 命名实体识别(Named Entity Recognition,简称N…

C语言验证6174数学问题

有意思的数学问题任意4位不完全一样的数字,能组合出的最大数字减去能组合出的最小数字,得到一个新的数字(3位数补0),重复以上操作,不超过7个循环,必然得到一个数:6174这个问题是之前发布的文章&…

Cortex-M3工作模式与异常

Cortex-M3工作模式与异常 宗旨:技术的学习是有限的,分享的精神是无限的。 一、工作模式 线程模式和手柄模式。 当处理器处在线程状态下时,既可以使用特权级,也可以使用用户级;另一方面, handler模式总是特…

自己动手实现一个malloc内存分配器 | 30图

对内存分配器透彻理解是编程高手的标志之一。如果你不能理解malloc之类内存分配器实现原理的话,那你可能写不出高性能程序,写不出高性能程序就很难参与核心项目,参与不了核心项目那么很难升职加薪,很难升级加薪就无法走向人生巅峰…

机器学习面试——分类算法SVM

1、什么是硬间隔和软间隔? 当训练数据线性可分时,通过硬间隔最大化,学习一个线性分类器,即线性可分支持向量机。 当训练数据近似线性可分时,引入松弛变量,通过软间隔最大化,学习一个线性分类器…

Cortex M3 NVIC与中断控制

Cortex M3 NVIC与中断控制 宗旨:技术的学习是有限的,分享的精神是无限的。 一、NVIC概览 ——嵌套中断向量表控制器 NVIC 的寄存器以存储器映射的方式来访问,除了包含控制寄存器和中断处理的控制逻辑之外, NVIC 还包含了 MPU、 S…

VS 2005 或 VS 2008 在安装VSS 2005后,看不到源代码管理的解决办法

昨天有朋友在重新安装VS 2008后,再安装VSS 2005,安装好后在文件菜单中找不到“源代码管理”的菜单项,后来经朋友告知,是开发工具的默认选项设置问题。打开开发工具,“工具”--“选项”:(如图&am…

代码里-3gt;gt;1是-2但3gt;gt;1是1,-3/2却又是-1,为什么?

之前群里有个同学向大家提出了类似这样的问题。随后这位同学公布了答案:右移运算是向下取整,除法是向零取整。这句话对以上现象做了很好的总结,可是本质原因是什么呢?我一直以为-3>>1的结果是-1。所以打算思考一下这个问题。…

机器学习面试——逻辑回归和线性回归

1、什么是广义线性模型(generalize linear model)? 普通线性回归模型是假设X为自变量,Y为因变量,当X是一维的,y是一维的,共进行n次观测,则 其中,w是待估计的参数&#x…

STM32开发环境

STM32开发环境 宗旨:技术的学习是有限的,分享的精神是无限的。 一、MDK安装 MDK 是一个集代码编辑,编译,链接和下载于一体的集成开发环境( KDE )。MDK 这个名字我们可能不熟悉,但说到 KEIL …