当前位置: 首页 > 专利查询>三峡大学专利>正文

基于平行特征域的变压器多源局部放电模式识别方法技术

技术编号:24118183 阅读:25 留言:0更新日期:2020-05-13 02:19
基于平行特征域的变压器多源局部放电模式识别方法,提取多源局部放电信号构造多源局部放电时域信号集和时频域信号集;将多个单一神经网络自动编码器组合成两个堆叠编码器。选择sigmoid函数作为堆叠编码器网络层之间的激活函数,并利用激活函数获得下一网络层的激活值。对堆叠编码器中调节每层网络参数的损失函数添加正则化项。设置损失函数的优化求解方法为近端导向随机子梯度算法。添加softmax作为神经网络的分类层;使用堆叠编码器对多源局部放电时域信号集和时频域信号集进行并行训练。特征矩阵数据有着相应的标签,对比分类结果对网络参数进行微调。该方法分类精度高,深度学习模型泛化能力强等优点,适用对变压器进行多源局部放电模式识别等场合。

Pattern recognition method of multi-source partial discharge in Transformer Based on parallel characteristic domain

【技术实现步骤摘要】
基于平行特征域的变压器多源局部放电模式识别方法
本专利技术涉及变压器局部放电模式识别领域,具体涉及一种基于平行特征域的变压器多源局部放电模式识别方法。
技术介绍
传统多源局部放电识别方法,以构造特征量为基础,但是人为构造的特征虽具有明确的物理意义,但维度更低;而深度学习算法通过隐藏层之间的非线性映射,将多源局部放电特征信息抽象成多维度矩阵,涵盖的特征信息更丰富,更能表征原始多源局部放电的信息。而深度学习作为最高效的特征提取工具之一,随着网络层的增加,网络层间的冗余参数增多,以致于引起过拟合问题从而导致分类精度较低。正则化项作为解决过拟合问题的主流方法之一,具有更短的训练时间,其具有的稀疏解不会引入过多的计算复杂度。但是正则化项的加入使得损失函数发生改变,选择一个优化能力较强的梯度下降算法就显得尤为重要。传统的变压器多源局部放电诊断方法存在以下问题:①、信号分离效果差;②、人为提取的信号特征量不够准确;③、用来模式识别的神经网络算法在进行训练时存在过拟合等问题。
技术实现思路
为解决上述技术问题,本专利技术提供一种基于平行特征域的变压器多源局部放电模式识别方法,该方法分类精度高,深度学习模型泛化能力强等优点,适用对变压器进行多源局部放电模式识别等场合。本专利技术采取的技术方案为:基于平行特征域的变压器多源局部放电模式识别方法,包括以下步骤:步骤1:提取变压器多源局部放电时域脉冲信号,构成时频信号集;对多源局部放电时域脉冲信号进行S变换后的时频矩阵,构成时频域信号集;S变换的公式为:其中,x(t)为时域信号,t为时间,S(τ,f)为所求得的时频域矩阵,τ是高斯窗函数的中心,f为时域信号的频率,e为自然底数取2.718。为积分符号,-∞为积分下限,意为负无穷,+∞为积分上限,意为正无穷,dt为微分符号,意为对时间t求导,i为虚数单位。步骤2:将多个单一神经网络自动编码器组合成两个堆叠编码器,其中一个堆叠编码器用来提取多源局部放电时域特征,另一个堆叠编码器用来提取多源局部放电时频域特征;步骤3:选择sigmoid函数,作为堆叠编码器网络层之间的激活函数,并利用激活函数获得下一网络层的激活值;激活函数每个相邻网络层之间的非线性映射,其与网络层的激活值、网络参数间的关系为:f(x)=Se(b+Wx)(2)其中,W和b构成网络参数,分别为权值矩阵和偏置矩阵,x即为网络层的激活值,f(x)为待求网络层的激活值。在自动编码器中,Se为编码器网络的激活函数,其为常见的S型函数,能将隐藏层的激活值限制在(0,1),其公式为:其中,Se(x)为激活函数的值,e为自然底数,取2.718,x为输入值。步骤4:对堆叠编码器中调节每层网络参数的损失函数添加正则化项;损失函数的表达式为:其中,xk是理论值,为网络计算出的预测值,为实际值和预测值之间的误差,a代表实际值,b代表预测值,系数向量θ={b,W}。损失函数用来衡量网络输出和实际值之间的差异,传统堆叠编码器旨在使损失函数JAE(θ)最小化,并寻求参数向量θ的最优解。本专利技术改进了损失函数,在损失函数中加入正则项变换L1范数。变换L1范数的表达式为:其中,ρa(·)为变换L1范数的值,a为调节参数,x为输入量。正则化项作为一个函数,将其添加在损失函数的表达式中,能够限制神经网络中冗余的网络参数,解决网络训练时的过拟合问题。变换L1范数具有无偏性、稀疏性和连续性的优点。步骤5:设置损失函数的优化求解方法,为近端导向随机子梯度算法;近端导向随机子梯度算法通过在每次迭代中不精确求解近端算子来计算出近似平稳点,一个非凸、非光滑函数的近端算子表达式为:其中,φ(·)即为非凸、非光滑函数,为凸集,r为控制系数,y为非凸、非光滑函数的自变量,x为近端算子的待求量。对该近端算子使用随机次梯度法来近似求解。次梯度公式如下:其中,r为控制系数,y为非凸、非光滑函数的自变量,x为近端算子的待求量,为自变量y的梯度。步骤6:添加softmax,作为神经网络的分类层;softmax是神经网络中常用的分类器,其实质为归一化指数函数,公式为:其中,X输入向量,XT为输入向量的转置,T为矩阵转置符号,j为所属类别,K为类别总数,Wk所有的类别向量矩阵,W为某一个类别向量,y为输出的类别。步骤7:使用堆叠编码器,对多源局部放电时域信号集和时频域信号集进行并行训练;所述并行训练过程为:每个神经元的激活值由前一层的输入通过激活函数非线性映射得到,再将该层神经元的激活值作为输入计算下一层的激活值,如此往复直至最后一层隐藏层。对时域信号集和时频域信号集同时执行上述过程,两个堆叠编码器最后一层隐藏层的激活值构成了两种特征矩阵,再将这两种特征矩阵进行融合并将其作为分类层的输入,然后分类层计算出该局部放电缺陷特征所属类别的概率进行分类。分类层计算出该局部放电缺陷特征所属类别的概率进行分类,分类层的输出即为对多源局部放电信号进行模式识别的结果。特征矩阵数据有着相应的标签,对比分类结果,对网络参数进行微调,使用已经微调好网络参数的平行特征域堆叠编码器对多源局部放电信号进行模式识别,其中,多源局部放电信号由多个单源局部放电信号组合而成。对待识别的多源局部放电信号执行上述步骤1~步骤6。所述微调过程为:当分类结果较差,通过使用近端导向随机子梯度算法,对神经网络最后一层隐藏层和分类层之间所有神经元的损失函数进行优化求解,得到的最优解作为该层新的网络参数。得到更新后的参数后,将后一层网络的激活值作为输入,反向更新求解前一层网络的激活值,如此往复,直至更新完输入层和第一层隐藏层之间的网络参数。本专利技术一种基于平行特征域的变压器多源局部放电模式识别方法,有益效果如下:1:解决传统人为构造多言局部放电特征量丢失关键信息严重的问题:深度学习具有强大的自适应特征学习,避免了传统特征量只关注单一特征的缺陷。深度学习提取的特征是多维度的集成特征。本专利技术提出的平行特征域更是涵盖了时域和时频域两大特征域,其提取出的特征更能表征原始多源局部放电缺陷信息。2:解决了传统深度学习因冗余参数导致过拟合的问题:正则化项能稀疏化深度学习结构,不会带来过多的计算量,进一步提高网络模型的泛化能力。而所提出的变换L1范数具有的无偏性、稀疏性和连续性的优点也较传统正则化项性能提升不少,其形式多样,即便于求解又有较强的稀疏能力。3:解决了非凸非光滑损失函数的迭代求解问题:正则化项的加入,使得损失函数变成了非凸、非光滑函数,传统的梯度下降算法既运算量大又不能很好解决非凸、非光滑函数。而所提出近端导向随机子梯度算法能很好的解决非凸、非光滑函数的迭代求解问题,并且收敛时间较短。附图说明图1为自动编码器结构图。图2为平行特征域原理图。图本文档来自技高网...

【技术保护点】
1.基于平行特征域的变压器多源局部放电模式识别方法,其特征在于包括以下步骤:/n步骤1:提取变压器多源局部放电时域脉冲信号,构成时频信号集;对多源局部放电时域脉冲信号进行S变换后的时频矩阵,构成时频域信号集;/nS变换的公式为:/n

【技术特征摘要】
1.基于平行特征域的变压器多源局部放电模式识别方法,其特征在于包括以下步骤:
步骤1:提取变压器多源局部放电时域脉冲信号,构成时频信号集;对多源局部放电时域脉冲信号进行S变换后的时频矩阵,构成时频域信号集;
S变换的公式为:



其中,x(t)为时域信号,t为时间,S(τ,f)为所求得的时频域矩阵,τ是高斯窗函数的中心,f为时域信号的频率,e为自然底数;为积分符号,-∞为积分下限,+∞为积分上限,dt为微分符号,表示对时间t求导,i为虚数单位;
步骤2:将多个单一神经网络自动编码器组合成两个堆叠编码器,其中一个堆叠编码器用来提取多源局部放电时域特征,另一个堆叠编码器用来提取多源局部放电时频域特征;
步骤3:选择sigmoid函数,作为堆叠编码器网络层之间的激活函数,并利用激活函数获得下一网络层的激活值;
激活函数每个相邻网络层之间的非线性映射,其与网络层的激活值、网络参数间的关系为:
f(x)=Se(b+Wx)(2)
其中,W和b构成网络参数,分别为权值矩阵和偏置矩阵,x即为网络层的激活值,f(x)为待求网络层的激活值;在自动编码器中,Se为编码器网络的激活函数,能将隐藏层的激活值限制在(0,1),其公式为:



其中,Se(x)为激活函数的值,e为自然底数,x为输入值;
步骤4:对堆叠编码器中调节每层网络参数的损失函数添加正则化项;
损失函数的表达式为:



其中,xk是理论值,为网络计算出的预测值,为实际值和预测值之间的误差,a代表实际值,b代表预测值,系数向量θ={b,W};
损失函数用来衡量网络输出和实际值之间的差异,这里改进了损失函数,在损失函数中加入正则项变换L1范数;
变换L1范数的表达式为:



其中,ρa(·)为变换L1范数的值,a为调节参数,x为输入量,正则化项作为一个函数,将其添加在损失函数的表达式中,能够限制神经网络中冗余的网络参数;
步骤5:设置损失函数的优化求解方法,为近端导向随机子梯度算法;近端导向随机子梯度算法通过在每次迭代中不精确求解近端算子来计算出近似平稳点,一个非凸、非光滑函数的近端算...

【专利技术属性】
技术研发人员:徐艳春夏海廷谢莎莎
申请(专利权)人:三峡大学
类型:发明
国别省市:湖北;42

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1