基于序列到点和残差连接的非侵入式负荷分解方法技术

技术编号:35097741 阅读:27 留言:0更新日期:2022-10-01 17:02
本发明专利技术属于非侵入式负荷监测、分解技术领域,具体为一种基于序列到点和残差连接的非侵入式负荷分解方法,包括:步骤一、数据采集并预处理;步骤二、特征提取;步骤三、构建基于BiLSTM的残差子模块,子模块中引入了自注意力机制,提升网络对关键特征的提取能力,子模块在输入和输出之间建立了直接连接,能更好地解决梯度消失、网络退化等问题;步骤四、搭建基于序列到点和残差连接的非侵入式负荷分解模型,模型中引入了残差子模块,利用序列到点方法使模型输出目标电器对应窗口中点功率值;步骤五、训练模型;步骤六、进行负荷分解。本发明专利技术降低了模型的训练难度,负荷分解值的准确性也较高。高。高。

【技术实现步骤摘要】
基于序列到点和残差连接的非侵入式负荷分解方法


[0001]本专利技术属于非侵入式负荷监测、分解
,具体为一种基于序列到点和残差连接的非侵入式负荷分解方法。

技术介绍

[0002]非侵入式负荷监测,也称为能量分解,可将用户总负荷信息分解为各用电设备信息。以降低能源消耗为目的,非侵入式负荷监测技术可以帮助家庭用户了解家用电器的具体用电量,从而合理安排电器使用达到降低能耗成本、节能电能的作用。随着深度学习在非侵入式负荷监测领域上的应用,基于神经网络的负荷分解模型的误差逐渐降低,但模型的信息特征提取能力和的功率分解值的准确性依旧不够高,网络层数加深会导致网络参数增加,同时可能会使网络训练过程中会出现梯度消失、网络退化等现象,这会导致网络难以得到充分的训练。

技术实现思路

[0003]本专利技术的目的在于提供基于序列到点和残差连接的非侵入式负荷分解方法,在丰富数据样本、提升模型的信息特征提取能力和负荷分解准确率的同时解决网络加深网络导致难以训练的问题。
[0004]本专利技术提供的基于序列到点和残差连接的非侵入式负荷分解方法,引入了序列到点方法将网络利用滑动窗口提取到的总有功功率序列映射到目标电器窗口序列的中点,这样输出序列的每个元素只会被预测一次,即每个时刻目标电器的有功功率值只会被预测一次,不会出现被预测多次而取平均值作为预测结果的情况,这样会使输出预测的准确度更高。本专利技术还对采集的总有功功率序列进行了差分处理与原始采集的总有功功率同时作为网络的输入,使每个时间步长的功率分解考虑了前一个时间步长的功率波动信息,丰富了特征数据,来提高负荷分解的准确率。本专利技术引入了残差连接构建了基于BiLSTM的残差子模块,子模块中还加入了自注意力机制,能增强对关键信息的特征提取能力,残差子模块在输入和输出之间建立了直接连接,从而达到了上述提升模型性能同时降低了模型的训练难度的目的。
[0005]为了实现上述目的,本专利技术提供的基于序列到点和残差连接的非侵入式负荷分解方法,所述方法包括以下步骤:
[0006]步骤一、数据预处理:采集主电源的总有功功率和各目标电器的有功功率,将主电源总有功功率进行差分处理并与原始采集的总有功功率数据合并,并对合并后得到的总有功功率数据和各目标电器的有功功率数据做最大最小归一化处理;
[0007]步骤二、特征提取:电力负荷数据是一种时间序列数据,利用滑动窗口的方法提取数据;将预处理后得到的数据,设置长度参数为W的滑动窗口,对预处理后的时间序列数据进行提取;
[0008]步骤三、构建基于BiLSTM的残差子模块:残差子模块包括1D卷积神经网络层、
BiLSTM层、自注意力机制层和残差连接,在残差块的输入和输出之间建立直接连接;
[0009]步骤四、构建基于序列到点和残差连接的非侵入式负荷分解模型:网络结构由一层1D卷积层、一个基于BiLSTM残差子网路模块、LSTM层以及两层全连接层组成,网络模型经过最后一层全连接层后实现序列到点的映射,模型的输出为目标电器对应窗口中点的功率值;
[0010]步骤五、训练基于序列到点和残差连接的非侵入式负荷分解模型:训练网络前会先对给定的一个长度为T的输入序列x=(x1...x
T
)的开头和结尾填充W/2个零,采用序列到点(seq2point)学习的原理训练整个网络模型,即定义所训练的网络为g
p
,将输入总有功功率窗口序列经过g
p
非线性映射到目标电器对应窗口的中点,其非线性映射的表达式如下:
[0011]y
k
=g
p
(x
t:t+w
‑1)+ε
[0012]其中,W为选取的滑动窗口的长度,x
t:t+w
‑1为输入滑动窗口提取的经过预处理的总有功功率序列,k=t+w/2,y
k
为输出窗口下目标电器的有功功率序列y
t:t+w
‑1的中点值,ε为误差,t为时间点;
[0013]根据非线性映射函数,求得损失函数,训练网络得到最终参数;
[0014]步骤六、进行负荷分解:将训练好的网络模型用于负荷分解。
[0015]进一步的,步骤一中,所述的差分处理操作具体为:将滤波后相邻时间点的总有功功率值相减,得到总有功功率差分处理后的数据,差分处理的公式如下:
[0016]ΔX
t
=X
t

X
t
‑1[0017]其中,X
t
表示时间点t的总有功功率,X
t
‑1是时间点t

1的总有功功功率,ΔX
t
是差分处理的结果。
[0018]进一步的,步骤三中,所述的自注意力机制是对输入序列X计算权重并为自身加权,采用的权重的计算表达式如下:
[0019]c(x)=r
1T
(x)r2(x)
[0020]a(x)=softmax(c
T
(x)r3(x))
[0021]式中,r1(
·
)、r2(
·
)、r3(
·
)为三个结构相同、参数变通的LSTM变换,a(
·
)为自注意力得分,通过计算得到的自注意力得分为经过LSTM变换的输入进行加权;
[0022]基于BiLSTM的残差子模块结构为:残差子模块由两部分组成,一部分是主要组成部分,从数据传递方向看为1D卷积神经网络层、BiLSTM层、自注力机制层组成,二是残差连接部分,即在输入和输出直接建立了直接连接,令残差块中主要组成部分神经网络层的输出为f(X),则残差网络块的总输出为H(x)=f(x)+x。
[0023]进一步的,步骤四中,所述搭建的基于序列到点和残差连接的非侵入式负荷分解模型具体结构如下:
[0024]输入层:滑动窗口提取的长度为W的经预处理过的总有功功率序列;
[0025]1D卷积层:包括16个卷积核,每个卷积核尺寸为1
×
4,步幅为1,激活函数为ReLU;
[0026]残差子模块:基于BiLSTM的残差子模块,子模块的主要组成部分中的1D卷积神经网络层的卷积核数量为16,卷积核大小1
×
4,层后接Relu函数,BiLSTM层中每层每层包括16个LSTM单元,Attetion层为经过LSTM变换的输入进行加权,与残差连接部分构成残差子模块;
[0027]LSTM层:包括32个LSTM单元,激活函数为ReLU;
[0046]其中,X
t
表示时间点t的总有功功率,X
t
‑1是时间点t

1的总有功功功率,ΔX
t
是差分处理的结果;
[0047]将差分处理后的总有功功率数据并与原始采集的总有功功率数据合并,并对合并后得到的总有功功率数据和各目标电器的有功功率数据做归一化处理,本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.基于序列到点和残差连接的非侵入式负荷分解方法,其特征在于,该方法包括以下步骤:步骤一、数据采集并预处理:采集主电源的总有功功率和各目标电器的有功功率,将主电源总有功功率进行差分处理并与原始采集的总有功功率数据合并,并对合并后得到的总有功功率数据和各目标电器的有功功率数据做最大最小归一化处理;步骤二、特征提取:电力负荷数据是一种时间序列数据,利用滑动窗口的方法提取数据,设置长度参数为W的滑动窗口,对预处理后的时间序列数据进行提取;步骤三、构建基于BiLSTM的残差子模块:基于BiLSTM的残差子模块包括1D卷积神经网络层、BiLSTM层、自注意力机制和残差连接,残差连接是在残差块的输入和输出之间建立直接连接;步骤四、构建基于序列到点和残差连接的非侵入式负荷分解模型:网络结构由一层1D卷积层、一个基于BiLSTM的残差子模块、一层LSTM层以及两层全连接层组成,网络模型经过最后一层全连接层后实现序列到点的映射,模型的输出为目标电器对应窗口中点功率值;步骤五、训练基于序列到点和残差连接的非侵入式负荷分解模型:训练网络前会先对给定的一个长度为T的输入序列x=(x1...x
T
)的开头和结尾填充W/2个零,采用序列到点(seq2point)学习的原理训练整个网络模型,即定义所训练的网络为g
p
,将输入总有功功率窗口序列经过g
p
非线性映射到目标电器对应窗口的中点,其非线性映射的表达式如下:y
k
=g
p
(x
t:t+w
‑1)+ε其中,W为选取的滑动窗口的长度,x
t:t+w
‑1为输入滑动窗口提取的经过预处理的总有功功率序列,k=t+w/2,y
k
为目标电器对应窗口的有功功率序列y
t:t+w
‑1的中点值,ε为误差,t为时间点;根据非线性映射函数,求得损失函数,训练网络得到最终参数;步骤六、进行负荷分解:将训练好的网络模型用于负荷分解。2.如权利要求1所述的基于序列到点和残差连接的非侵入式负荷分解方法,其特征在于:步骤一中,所述的差分处理操作具体为:将滤波后相邻时间点的总有功功率值相减,得到总有功功率差分处理后的数据,差分处理的公式如下:ΔX
t
=X
t

X
t
‑1其中,X
t
表示时间点t的总有功功率,X
t
‑1是时间点t

1的总有功功功率,ΔX
t
...

【专利技术属性】
技术研发人员:谢心雨汪伟安斯光邹国平
申请(专利权)人:中国计量大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1