System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于深层LSTM网络的电力系统负荷联邦预测方法及系统技术方案_技高网

一种基于深层LSTM网络的电力系统负荷联邦预测方法及系统技术方案

技术编号:43121590 阅读:13 留言:0更新日期:2024-10-26 09:59
本发明专利技术公开了一种基于深层LSTM网络的电力系统负荷联邦预测方法及系统,涉及。包括S1.获取参与联邦学习的微电网数量,并初始化全局模型;S2.将新的全局模型分发到各微电网各电网;S3.各微电网利用日前本地电力系统负荷预测数据进行基于LSTM网络的本地训练,得到本地模型;S4.将所有所述本地模型进行全局聚合,将新的全局模型代替旧的全局模型;S5.判断新的全局模型收敛情况,若是,则结束,否则返回步骤S2。本发明专利技术可充分利用不同微电网的孤立历史负荷数据,聚合每个微电网的本地模型来实现模型的共享,以提升孤立数据的利用率,同时加速模型的收敛。

【技术实现步骤摘要】

本专利技术涉及电力负荷预测,特别涉及一种基于深层lstm网络的电力系统负荷联邦预测方法及系统。


技术介绍

1、现代电力系统中的有功功率负荷需求预测过程的中间环节存在隐私泄露的风险和需要大量开销的问题。一方面,电力系统信息处理中心向各个微电网搜集历史负荷需求数据耗费大量通信开销。另一方面,尽管电力系统的有功功率数据在一定程度上是公开透明的,但在实际运行中,发电站、变电站、电网运营商等各个组成部分所掌握的数据往往具有局部性和私有性。这些数据不仅关乎设备运行状态、负荷情况和能源交易信息,更是各自运营和管理的核心机密。因此,如何在保护数据隐私,节省通信开销,同时提高预测精度,成为当前亟待解决的问题。

2、近年来,随着数据隐私保护意识的提升和分布式计算技术的飞速发展,联邦学习作为一种新兴的机器学习范式,逐渐崭露头角。联邦学习允许各个参与方在本地进行模型训练,并通过加密和安全的参数交换实现全局模型的协同优化。这一特性不仅保护了数据的隐私性,还促进了分布式计算的发展,提升了模型的性能。同时,由于负荷数据具有时序性、周期性和非线性等复杂特性,lstm网络作为一种擅长处理时序数据的深度学习模型,能够有效捕捉这些复杂特性,从而实现更精准的预测。但是集中式lstm算法需要处理大量数据,消耗大量通信成本,没有隐私保护机制,无法直接应用与工业界。多项式回归、简单线形回归方法只能解决短期有功负荷问题,对于长期负荷无法稳定预测,同时也没有隐私保护机制,无法直接用于工业界。目前亟需一种实现更高的精度和快速收敛负荷预测方法。


<b>技术实现思路

1、针对上述现有技术存在的不足,本专利技术提供了一种基于深层lstm网络的电力系统负荷联邦预测方法及系统,可充分利用不同微电网的孤立历史负荷数据,聚合每个微电网的本地模型来实现模型的共享,以提升孤立数据的利用率,同时加速模型的收敛。

2、一种基于深层lstm网络的电力系统负荷联邦预测方法,包括:

3、s1.获取参与联邦学习的微电网数量,并初始化全局模型;

4、s2.将新的全局模型分发到各微电网各电网;

5、s3.各微电网利用日前本地电力系统负荷预测数据进行基于lstm网络的本地训练,得到本地模型;

6、s4.将所有所述本地模型进行全局聚合,将新的全局模型代替旧的全局模型;

7、s5.判断新的全局模型收敛情况,若是,则结束,否则返回步骤s2。

8、优选地,步骤s1包括:定义微电网集合为n={1,…,n},微电网的索引表示为i∈n;

9、下发全局模型wl-1到第i个微电网;其中,全局模型wl-1是第l-1轮时由各本地模型聚合得到的;在第1轮时基于lstm网络初始化全局模型wg。

10、优选地,步骤s2包括:

11、当所有本地模型搜集完毕时,全局模型将按以下方式更新:

12、

13、其中,是第l轮时第i个微电网通过第l-1轮从中央服务器下载的全局模型wl-1经过若干次本地迭代得到的本地模型参数;当聚合得到新的全局模型;新的全局模型将替代旧的全局模型并下发到各个微电网中等待下一轮的本地训练。

14、优选地,所述负荷预测数据为历史负荷数据,是具有连续时间性质的n维数据,其中n∈n+;其中,缺失值通过插值处理。

15、优选地,步骤s3包括:

16、引入记忆单元采用滑动窗口的方法从预处理数据中读取输入序列大小为s;当滑动窗口的大小为l时,计算出∥sk∥=s-l+1;假设输出为同时为输出门;用和分别表示当前时间步长的输入序列的权重和上一时间步长的输出序列的权重,用b·表示偏置;

17、输入门表示为:

18、

19、其中,σ(·)为激活函数sigmoid,用于将值归一化到[0,1]的范围内,x(t)表示在t时刻的输入,h(t-1)表示上一时刻t-1的输出;

20、同样,遗忘门和输出门表示为:

21、

22、而用来记忆长期信息的记忆单元则表示为:

23、

24、其中,表示储存在记忆单元中的候选信息,表示在上一时刻t-1储存的信息;最后,在t时刻的输出表示为:

25、

26、优选地,步骤s3包括:

27、s31、对负荷预测数据进行清洗,剔除异常数据并按时序性对数据进行插值填充,使数据符合时间上不间断的数据;

28、s32、将符合数据处理成符合lstm处理的格式,输入的形状应该是[批次大小,步长大小,特征数];

29、s33、在将数据输入lstm网络时先对lstm网络进行初始化,使网络符合输入数据维度要求和预期的输出维度,以及初始化步长大小、隐藏层大小;

30、s34、数据被传入到lstm网络中进行前向传播,根据lstm网络的深度,每一层lstm都会按批次处理步长序列,并在每个时间步输出一个输出和所谓的隐藏状态、记忆单元;

31、s35、将每个时间步的输出展平,即从原来的[批次大小,步长大小,特征数]格式展平为[批次大小,步长大小×特征数];

32、s36、将展平的输出传递给线性层,最终输出每个样本的最终预测;

33、s37、将预测值与真实值,即每个步长序列数据的下一个数据,输入huber损失函数,得到损失值;

34、s38、将损失值进行反向传播,修正模型每一层的梯度;

35、s39、判断是否达到最大本地轮次,是则终止循环,得到本地模型;否则返回s33。

36、一种基于深层lstm网络的电力系统负荷联邦预测方法的系统,包括:

37、中央服务器,获取参与联邦学习的微电网数量,并初始化全局模型;将全局模型分发到各微电网各电网,并获取微电网单元上传的本地模型,对搜集到的所有本地模型后进行全局聚合,将新的全局模型代替旧的全局模型;以及

38、微电网单元,接收中央服务器发送的全局模型,利用日前本地电力系统负荷预测数据进行基于lstm网络的本地训练,得到本地模型,将本地模型上传到中央服务器。

39、与现有技术相比,本专利技术的有益效果为:

40、本专利技术可以降低电力系统的数据传输成本,同时实现隐私保护的目的,克服了现有的关于电力系统负荷预测的研究主要针对预测精度,而没有考虑电力系统的隐私保护问题,实现了隐私保护和节省电力系统工作成本的目的。

41、本专利技术各微电网的本地数据不必进行对外传输,只需要保留在本地环境即可,保护了数据隐私,也免去了训练数据传输带来的开销负担,降低电力系统的工作成本。

42、本专利技术可高效提取时间序列的深层特征,实现更高的精度和快速收敛;利用分布式的联邦学习对电力系统进行负荷需求预测是保护隐私,降低通信成本的重要手段。本专利技术解决了电力系统历史负荷隐私数据的流动问题,并利用lstm网络学习历史负荷数据特征,根据时序序列潜在信息,对未来的负荷需求本文档来自技高网...

【技术保护点】

1.一种基于深层LSTM网络的电力系统负荷联邦预测方法,其特征在于:

2.根据权利要求1所述的一种基于深层LSTM网络的电力系统负荷联邦预测方法,其特征在于:步骤S1包括:定义微电网集合为N={1,…,N},微电网的索引表示为i∈N;

3.根据权利要求2所述的一种基于深层LSTM网络的电力系统负荷联邦预测方法,其特征在于,步骤S2包括:

4.根据权利要求1所述的一种基于深层LSTM网络的电力系统负荷联邦预测方法,其特征在于:所述负荷预测数据为历史负荷数据,是具有连续时间性质的n维数据,其中n∈N+;其中,缺失值通过插值处理。

5.根据权利要求1所述的一种基于深层LSTM网络的电力系统负荷联邦预测方法,其特征在于:步骤S3包括:

6.根据权利要求3所述的一种基于深层LSTM网络的电力系统负荷联邦预测方法,其特征在于:步骤S3包括:

7.根据权利要求1-4所述的一种基于深层LSTM网络的电力系统负荷联邦预测方法的系统,其特征在于:

【技术特征摘要】

1.一种基于深层lstm网络的电力系统负荷联邦预测方法,其特征在于:

2.根据权利要求1所述的一种基于深层lstm网络的电力系统负荷联邦预测方法,其特征在于:步骤s1包括:定义微电网集合为n={1,…,n},微电网的索引表示为i∈n;

3.根据权利要求2所述的一种基于深层lstm网络的电力系统负荷联邦预测方法,其特征在于,步骤s2包括:

4.根据权利要求1所述的一种基于深层lstm网络的电力系统负荷联邦预测方法,其特...

【专利技术属性】
技术研发人员:凌龙秦健忠蒙锋陈佩璐陈冠霖董金熹刘浠流丁惠贤阮恒程汪涛
申请(专利权)人:广西电网有限责任公司柳州供电局
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1