当前位置: 首页 > 专利查询>湖南大学专利>正文

一种基于相关熵的宽度稀疏学习算法制造技术

技术编号:37571915 阅读:22 留言:0更新日期:2023-05-15 07:50
本发明专利技术公开了一种基于相关熵的宽度稀疏学习算法,包括RCBLS网络,RCBLS网络包括输入层、隐含层和输出层,RCBLS网络的隐含层由

【技术实现步骤摘要】
一种基于相关熵的宽度稀疏学习算法


[0001]本专利技术涉及数据分析
,尤其涉及一种基于相关熵的宽度稀疏学习算法。

技术介绍

[0002]在数据分析处理任务中,深度学习(deep learning,DL)因其具有强大的非线性映射能力和特征表示能力而受到广泛应用。然而,为了保证模型的性能,往往需要设计多个卷积层、池化层、全连接层等隐含层,导致模型的时间复杂度较高且超参数的数量较多。此外,如果所设计的深层结构不足以很好地对数据建模,则需要重新完整地训练新的模型。在如今这个大数据时代,数据信息量庞大、维度较多且更新较快,用深度神经网络处理高维数据的速度很慢,导致系统无法实现实时响应。因此,亟需设计一个快速高效的且可以快速重训练模型的网络架构来应对各种数据分析处理任务。
[0003]近年来,宽度学习系统(broad learning system,BLS)在数据回归和分类任务中获得广泛关注。与深度神经网络从深度这个维度堆叠隐含层的方式不同,BLS网络是从宽度这个维度构建的一个“平层”网络(flatted network)。在该网络模型中,原始输入数据被激活函数转换为映射特征并被置为特征节点,然后再通过一个非线性映射函数进一步增强得到若干个增强节点。通过一系列的特征节点、稀疏自编码器(sparse autoencoder)和增强节点,生成了在增强节点层中进行宽度扩展的网络体系结构。此外,BLS模型的输出权重的优化可以简化为最小二乘问题,利用Moore

Penrose逆可以高效地对其求解。相对于深度神经网络而言,BLS网络同样具有很强的逼近能力,但模型仅包含特征节点层(feature nodes layer)和增强节点层(enhancement nodes layer)两层,因此收敛速度更快、参数量更少。此外,当要增加新的训练样本或者节点时,深度神经网络需要重新训练模型,而BLS模型可以通过设计增强学习(incremental learning)算法动态地更新模型的连接权重,无需再训练整个网络。
[0004]现有的BLS模型大多是在训练数据是无噪声干扰的这一假设下设计的,因此都是采用最小均方误差(minimum mean square error,MMSE)作为模型的损失函数进行训练的。虽然标准的BLS在一般的数据回归和分类任务中表现出了良好的准确性和执行效率,但由于数据在采集、传输、存储等过程中非常容易受到噪声干扰,而MSE测量的是预测值和真实值之间的误差的平方和,当数据中存在噪声时,模型估计误差较大,噪声数据会被分配更高的权重。因此,基于MMSE损失函数的BLS模型在处理受噪声污染的数据时性能表现较为一般。此外,当噪声数据不满足高斯分布或者拉普拉斯分布这一假设时,模型的性能会随着噪声比例的增加而急剧下降。总之,现有BLS模型的鲁棒性有待进一步提高。
[0005]为了降低噪声对模型性能的影响,研究者们在损失函数的基础上增加了一个加权惩罚因子(weighted penalty factor)来约束每个样本数据对建模的贡献。具体地,对无失真的样本分配较高的权重来增加其贡献,对异常样本分配较低的权重来减少其贡献。在现有的较为鲁棒的BLS模型中,加权惩罚因子的设计存在一些问题:1)人为设计的加权惩罚因子需要依赖研究者的经验设置参数;2)某些加权惩罚因子是根据特定的数据集设计的,因
此模型的泛化能力不够好;3)加权惩罚因子只是对噪声数据分配低权重,也就是说,噪声数据仍然参与数据建模,因此模型性能依然会在某种程度上受噪声影响。

技术实现思路

[0006]本专利技术公开一种基于相关熵的宽度稀疏学习算法,旨在解决
技术介绍
中提出的由于在训练网络输出权重时,将最小均方误差准则作为损失函数来优化,其学习过程容易受到噪声的影响,缺乏鲁棒性的技术问题。
[0007]为了实现上述目的,本专利技术采用了如下技术方案:
[0008]一种基于相关熵的宽度稀疏学习算法,包括RCBLS网络,所述RCBLS(Regularized Correntropy Broad Leaning System)网络包括输入层、隐含层和输出层,所述RCBLS网络的隐含层由N
w
组特征节点和N
e
组增强节点组成,每组所述特征节点和增强节点分别包含N
f
和N
h
个节点。输入数据首先通过一个非线性映射函数提取出特征信息作为特征节点,映射特征再在通过一个非线性激活函数增强后置为增强节点,将所有所述特征节点和增强节点与输出层相连接后即可得到一个完整的BLS网络,给定一个包含N个样本的训练集其中,表示训练样本的特征(属性),表示样本的输出(标签),M和L分别表示样本特征和输出的维度,训练数据X首先通过一个非线性映射函数投影到特征节点层,得到对应的输出
[0009][0010]其中,和分别为随机生成的输入层和特征节点层之间的权重和偏置。
[0011]在一个优选的方案中,将所述特征节点层的输出A通过非线性映射函数φ(
·
)输入到增强节点层,得到
[0012][0013]其中,和分别为随机生成的特征节点层和增强节点层之间的权重和偏置。一般地,非线性激活函数可设置为tanh函数或者sigmoid函数将所述特征节点和增强节点连接起来,得到矩阵Z=[A|B],最终的BLS模型定义为
[0014]Y=ZW
ꢀꢀ
(3)
[0015]其中,W是BLS模型的连接权重,基于最小二乘线性方程的岭回归算法,可通过求解以下凸优化模型快速计算隐藏层和输出层之间的连接权重
[0016][0017]其中,||
·
||2表示l2范数,λ表示正则化参数,公式(4)是标准BLS模型的目标函数,目标函数的数据保真项用于控制模型预测值与真实值保持一致,而正则化项则用于平滑权重W的分布以及避免过拟合问题。
[0018]在一个优选的方案中,通过对所述公式(4)求偏导,可得模型的最终解为
[0019]W=(Z
T
Z+λI)
‑1Z
T
Y
ꢀꢀ
(5)
[0020]由公式(4)可以看出,原始的BLS模型是基于l2范数实现的,而l2范数假设模型参数服从高斯分布。当样本的特征或标签中存在噪声和离群值时,BLS模型的性能表现较差。为了进一步增强BLS模型的鲁棒性,使用Correntropy作为损失函数来去除数据中的噪声和离群值,用l
2,1
范数作为正则化项来选择有用的特征信息,目标函数定义为
[0021][0022]其中,σ表示用于控制Correntropy所有属性的核函数的大小,由于公式(6)是非凸的,因此采用半二次理论对其进行优化求解,根据HQ准则,存在一个共轭函数ζ(u)使得
[0023][0024]其下确界为
[0025][0026]在本专利技术中,κ(v)=exp(

v/σ2),为了简本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于相关熵的宽度稀疏学习算法,包括RCBLS网络,其特征在于,所述RCBLS网络包括输入层、隐含层和输出层,所述RCBLS网络的隐含层由N
w
组特征节点和N
e
组增强节点组成,每组所述特征节点和增强节点分别包含N
f
和N
h
个节点,输入数据首先通过一个非线性映射函数提取出特征信息作为特征节点,映射特征再在通过一个非线性激活函数增强后置为增强节点,将所有所述特征节点和增强节点与输出层相连接后即可得到一个完整的BLS网络,给定一个包含N个样本的训练集其中,表示训练样本的特征(属性),表示样本的输出(标签),M和L分别表示样本特征和输出的维度,训练数据X首先通过一个非线性映射函数投影到特征节点层,得到对应的输出其中,和分别为随机生成的输入层和特征节点层之间的权重和偏置。2.根据权利要求1所述的一种基于相关熵的宽度稀疏学习算法,其特征在于,将所述特征节点层的输出A通过非线性映射函数φ(
·
)输入到增强节点层,得到其中,和分别为随机生成的特征节点层和增强节点层之间的权重和偏置;一般地,非线性激活函数可设置为tanh函数或者sigmoid函数将所述特征节点和增强节点连接起来,得到矩阵Z=[A|B],最终的BLS模型定义为Y=ZW
ꢀꢀꢀꢀ
(3)其中,W是BLS模型的连接权重,基于最小二乘线性方程的岭回归算法,可通过求解以下凸优化模型快速计算隐藏层和输出层之间的连接权重其中,||
·
||2表示l2范数,λ表示正则化参数,公式(4)是标准BLS模型的目标函数,目标函数的数据保真项用于控制模型预测值与真实值保持一致,而正则化项则用于平滑权重W的分布以及避免过拟合问题;通过对所述公式(4)求偏导,可得模型的最终解为W=(Z
T
Z+λI)
‑1Z
T
Y
ꢀꢀꢀꢀ
(5)由公式(4)可以看出,原始的BLS模型是基于l2范数实现的,而l2范数假设模型参数服从高斯分布。3.根据权利要...

【专利技术属性】
技术研发人员:刘立成刘婷云陈俊昊
申请(专利权)人:湖南大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1