一种基于制造技术

技术编号:39650745 阅读:19 留言:0更新日期:2023-12-09 11:19
本发明专利技术一种基于

【技术实现步骤摘要】
一种基于CLRM模型的深度学习侧信道攻击方法及系统


[0001]本专利技术涉及侧信道攻击
,具体而言,涉及一种基于
CLRM
模型的深度学习侧信道攻击方法及系统


技术介绍

[0002]随着深度学习技术的发展,以及现今处于移动互联网

云计算

大数据等计算机技术高速发展的阶段,各种设备如可穿戴设备

智能终端

嵌入式设备等已经成为了生活不可或缺的一部分,但与此同时密码算法却遭到了威胁,产生最大威胁的攻击手段是侧信道攻击
(Side Channel Attack,SCA)
,其本质就是利用仪器捕获到与密钥有关的物理信息,如加密过程中释放的声音

电磁辐射和功耗损失等关键信息,然后分析这些物理泄露信息与加密过程中加密数据中间状态的关系,可实现小成本破解密钥

[0003]此外,在侧信道攻击领域,按照是否对旁路信息构建模板可以划分为两类:建模类侧信道攻击和非建模类侧信道攻击

在建模类侧信道攻击中包括建模阶段和攻击阶段两个阶段,对应于深度学习中的训练阶段和预测阶段

在建模阶段,攻击者使用与目标设备相同的建模设备来对密钥相关的信息与目标设备的旁路泄露之间的依赖关系进行建模;在攻击阶段,使用已建立的模型对目标设备执行密钥恢复攻击,如模板攻击
(Template Attack,TA)
和随机攻击
(Stochastic Attack,SA)
都属于建模类侧信道攻击

[0004]目前,深度学习算法已经在侧信道领域获得了大量的实验验证,并取得了很好的研究成果
。Maghrebi
等人首次提出将深度学习应用于侧信道攻击,证明了基于深度学习的侧信道攻击可以有效地攻击未采用掩码保护的
AES
算法实现

最常用的深度神经网络为卷积神经网络,卷积神经网络具有空间不变性,可以天然地抵抗轨迹去对齐的对策

而且,卷积神经网络的内部结构使得它们能够从高维数据中自动提取出特征,在一定程度上减轻了数据预处理的需求

但基于深度学习的侧信道攻击成功仍然需要大量能量迹,模型效率有待进一步提升的问题,且模型在训练时存在快速过拟合以及梯度消失等问题


技术实现思路

[0005]本专利技术要解决的技术问题是:
[0006]现有的基于深度学习的侧信道攻击方法需要大量能量迹

模型效率低,且模型在训练时存在快速过拟合以及梯度消失等问题

[0007]本专利技术为解决上述技术问题所采用的技术方案:
[0008]本专利技术提供了一种基于
CLRM
模型的深度学习侧信道攻击方法,所述的
CLRM
模型为
CNN Model、LSTM Model、ResNet Model
的缩写,该方法包括如下步骤:
[0009]S1、
获取密码算法在设备运行过程中产生的侧信道数据;
[0010]S2、
构建侧信道攻击模型,所述模型包括卷积神经网络模块

长短期记忆网络模块以及残差网络模块,利用已知密钥的侧信道数据对所述侧信道攻击模型进行训练,以建立从侧信道数据到正确密钥之间的映射关系;
[0011]S3、
采用训练后的侧信道攻击模型对采集的侧信道数据进行特征提取分析,以实现对密钥的正确恢复

[0012]进一步地,所述卷积神经网络模块用于对泄露信息的特征进行提取,包括3个卷积块,每个卷积块包括:卷积层

批归一化处理层
、SeLU
激活函数层和最大池化层
MaxPooling。
[0013]进一步地,所述长短期记忆网络模块用于学习不同的特征信息,包括2个
CuDNNLSTM


批处理归一化层和激活函数层

[0014]进一步地,所述残差网络模块包括2个批标准化处理层
、2

SeLU
激活函数层
、2
个卷积层以及软阈值模块

[0015]进一步地,所述
CLRM
模型具体架构包括:
[0016]输入层:第一层为
Input
层,也就是输入能量迹向量;
[0017]卷积神经网络模块包括3个卷积块:
[0018]卷积块1:第二层为卷积层
Conv、
批处理归一化层
BN、
激活函数层
SeLU
和最大池化层
MaxPooling
;其中卷积层的过滤器大小为3,步长为2,个数为
128
,填充模式为
same
;最大池化层的池化窗口为2,且步长也为2;
[0019]卷积块2:第三层为卷积层
Conv、
批处理归一化层
BN、
激活函数层
SeLU
和最大池化层
MaxPooling
;其中卷积层的过滤器大小为3,步长为2,个数为
256
,填充模式为
same
,而最大池化层的池化窗口为2,步长为2;
[0020]卷积块3:第四层为卷积层
Conv、
批处理归一化层
BN、
激活函数层
SeLU
和最大池化层
MaxPooling
;其中卷积层的过滤器大小为3,步长为2,个数为
512
,填充模式为
same
,而最大池化层的池化窗口为2,步长为2;
[0021]长短期记忆网络模块:第五层包括向前和向后传播的两层
CuDNNlSTM
,其向前传播的单元个数为
128
,向后传播的单元个数为
128
,将向前和向后传播的
CuDNNLSTM
分别经过批处理归一化层和激活函数层处理后再连接起来;
[0022]最大池化层:第六层为
MaxPooling
层;池化窗口为2,步长为2;
[0023]残差网络模块:第七层包括两个批标准化处理层

两个
SeLU
激活函数层

两个卷积层的个数都为
256
和软阈值模块,其中卷积层的卷积核大小为3和步长为2;
[0024]批处理归一化层:第八层为
BN
层;
[0025]激活函数层:第九层为
SeLU
激活函数层;
[0026]全局平均池化层:第十层为
GAP
层;
[0027]数据压平层:第十本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.
一种基于
CLRM
模型的深度学习侧信道攻击方法,其特征在于,包括如下步骤:
S1、
获取密码算法在设备运行过程中产生的侧信道数据;
S2、
构建侧信道攻击模型,所述模型包括卷积神经网络模块

长短期记忆网络模块以及残差网络模块,利用已知密钥的侧信道数据对所述侧信道攻击模型进行训练,以建立从侧信道数据到正确密钥之间的映射关系;
S3、
采用训练后的侧信道攻击模型对采集的侧信道数据进行特征提取分析,以实现对密钥的正确恢复
。2.
如权利要求1所述的基于
CLRM
模型的深度学习侧信道攻击方法,其特征在于,所述卷积神经网络模块用于对泄露信息的特征进行提取,包括3个卷积块,每个卷积块包括:卷积层

批归一化处理层
、SeLU
激活函数层和最大池化层
MaxPooling。3.
如权利要求2所述的基于
CLRM
模型的深度学习侧信道攻击方法,其特征在于,所述长短期记忆网络模块用于学习不同的特征信息,包括2个
CuDNNLSTM


批处理归一化层和激活函数层
。4.
如权利要求3所述的基于
CLRM
模型的深度学习侧信道攻击方法,其特征在于,所述残差网络模块包括2个批标准化处理层
、2

SeLU
激活函数层
、2
个卷积层以及软阈值模块
。5.
如权利要求4所述的基于
CLRM
模型的深度学习侧信道攻击方法,其特征在于,所述
CLRM
模型具体架构包括:输入层:第一层为
Input
层,也就是输入能量迹向量;卷积神经网络模块包括3个卷积块:卷积块1:第二层为卷积层
Conv、
批处理归一化层
BN、
激活函数层
SeLU
和最大池化层
MaxPooling
;其中卷积层的过滤器大小为3,步长为2,个数为
128
,填充模式为
same
;最大池化层的池化窗口为2,且步长也为2;卷积块2:第三层为卷积层
Conv、
批处理归一化层
BN、
激活函数层
SeLU
和最大池化层
MaxPooling
;其中卷积层的过滤器大小为3,步长为2,个数为
256
,填充模式为
same
,而最大池化层的池化窗口为2,步长为2;卷积块3:第四层为卷积层
Conv、
批处理归一化层
BN、
激活函数层
SeLU
和最大池化层
MaxPooling
;其中卷积层的过滤器大小为3,步长为2,个数为
512
,填充模式为
same
,而最大池化层的池化窗口为2,步长为2;长短期记忆网络模块:第五层包括向前和向后传播的两层
CuDNNlSTM
,其向前传播的单元个数为
128
,向后传播的单元个数为
128
,将向前和向后传播的
...

【专利技术属性】
技术研发人员:黄海唐新琳刘志伟马超关志博吴英东
申请(专利权)人:中数深圳时代科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1