一种基于深度学习的大变形测量方法及系统技术方案

技术编号:38667181 阅读:13 留言:0更新日期:2023-09-02 22:47
本发明专利技术公开了一种基于深度学习的大变形测量方法及系统,通过对参考图及变形图的特征及变形信息进行提取完成初始值估计,再利用递归迭代的思想对位移初始值进行迭代细化,完成测量模型的构建,最后对得到的测量模型进行训练优化得到最终模型,将要测量的图像输入进训练好的测量模型即可得到图像间的变形场;相比于现有深度学习数字图像相关测量方法,本方法可以完成小变形及大变形的测量,通过在低尺度特征上进行初始值估计,然后使用估计的初始值在高尺度特征上进行迭代细化,保证了模型能够同时适应于小变形以及大变形测量,同传统方法相比,解决了数字图像相关方法中计算速度慢、需人为设置参数等影响,该方法不再依赖子区大小的设置,在测量高频率变化的变形场方面具有绝对优势。绝对优势。

【技术实现步骤摘要】
一种基于深度学习的大变形测量方法及系统


[0001]本专利技术属于数字图像相关
,尤其涉及到一种基于深度学习的大变形测量方法及系统。

技术介绍

[0002]随着社会的蓬勃发展和科技的不断进步,测量技术也在持续快速发展,现代测量手段广泛应用于各类材料、部件结构及产品性能的研究,在基础制造业,汽车工业,航空航天以及国防等领域对生产制造和研究发挥巨大的反馈修正作用,在工业发展中具有举足轻重的地位;位移和应变这两个被测量通常能直接反映材料和结构的力学特性,从而为材料的选择提供理论支撑,通常进行测量的方法主要分为接触式测量与非接触式测量两种,接触式测量主要有位移计,应变片等,这种测量方式精度较高,且稳定性较好,但由于其需接触被测物,在一定程度上会影响测量结果的准确性,而非接触式测量主要有光弹法、条纹投影法、云纹干涉法和数字图像相关方法,其中,数字图像相关方法以其测量设备简单、环境要求较低等特殊优势从众多方法中脱颖而出,是目前光测力学研究领域最为活跃的测量方法。
[0003]数字图像相关(Digital image correlation)法,这是一种用于全场运动、变形测量的非接触式光学计量技术,这种技术只需要相机作为图像采集设备,就可以完成变形的测量,过去三十年中,数字图像相关(DIC)技术越来越多地应用于许多涉及非接触式测量领域,如实验力学,细胞力学和结构健康监测,传统DIC方法核心需要将物体变形前和变形后的图像分别作为参考图像和变形图像,并在参考图像上选择几个等距的子区,通过在变形图像上匹配最大相关性子区来跟踪子区的中心。这些子区中心也被称为种子点,可以通过跟踪种子点的位置来测量物体的表面变形,但一般为了保证较高的计算效率,往往会设置较少的种子点来描述表面变形,计算出所设种子点的位移后会根据插值得到整个全场的位移,这也会导致较大插值误差,因此种子点的数量必须权衡计算效率和插值精度,显然设计一个具有高计算效率和足够种子点的DIC算法意义非凡。
[0004]DIC方法其理论的研究主要集中于整像素搜索和亚像素配准,整像素搜索的方法如傅里叶变换,SIFT,遗传算法等;关于亚像素配准,自1989年,提出Newton

Raphson偏微分迭代法以来,是DIC方法发展过程中的一个重大突破,然而,当变形图像被更新时,Newton

Raphson方法需要重新计算Hessian矩阵,这大大限制了其计算效率,但亚像素配准的整体精度很高,后续有人提出了反向组合高斯牛顿迭代法来进行图像配准,又称IC

GN(Inverse compositional Gauss

Newton algorithm)法,它避免了Hessian矩阵的重复计算,成为最高效的亚像素匹配方法,到目前为止,IC

GN算法成为当前的DIC计算中亚像素配准的主流方法。
[0005]上述提到的主流方法的计算效率很难满足实时测量的要求,尤其对于分辨率较大的图像,若想获得全场每个像素的位移则无法满足,且该方法需要人为根据变形的类型确定子区大小与迭代参数,这依赖于人为的经验,对于一些复杂的变形需要迭代更长的时间,
甚至对于一些高梯度变形会失效,近期,有些学者将深度学习应用于DIC测量以获得全场位移测量,这一方法能够极大的提高计算效率,但他们的网络仅仅只是对于U

net进行简单更改,网络只能进行小位移测量,且参数量多,同时泛化能力差。
[0006]近年来,随着数码相机高速、高分辨率的快速发展,导致了图像的激增以及每张图像中需要处理的像素的激增,对高精度的高速DIC的要求越来越迫切;此外,针对某些应用中实时运动跟踪的特殊要求,DIC方法的计算效率近年来变得越来越重要,研究一种速度快,鲁棒性好,且能克服传统方法带来不足的DIC方法意义重大。

技术实现思路

[0007]本专利技术的目的在于提供一种基于深度学习的大变形测量方法及系统,以克服现有深度学习数字图像相关方法只能针对小位移测量,且参数量多,计算效率低,同时泛化能力差的问题。
[0008]一种基于深度学习的大变形测量方法,包括以下步骤:
[0009]S1,利用布尔模型渲染得到参考图,施加变形场给参考图得到变形图,通过参考图、变形图及相应的变形场构建数据集;
[0010]S2,特征提取阶段:提取S1数据集中图像的特征信息与变形信息;
[0011]初始值估计阶段:根据图像的特征信息与变形信息完成位移初始值估计;
[0012]迭代细化阶段:对位移初始值进行迭代细化得到最终位移,完成测量模型构建;
[0013]S3,对测量模型进行训练优化,得到最终测量模型;
[0014]S4,采集图像,对采集的图像进行灰度处理,对于一系列帧图像,以第一帧图像作为参考图,后续每一帧图像都作为变形图,将参考图及变形图输入训练好的模型即可得到两帧图像之间的变形场。
[0015]进一步的,S1中,所述位移随机生成,指定像素坐标系为基准,在变形帧上检索参考帧对应像素,判断更新后的索引坐标是否越界,若发生越界,则重新生成位移。
[0016]进一步的,特征提取阶段,通过特征编码器提取图像不同尺度的特征信息其中参考图特征信息为变形图特征信息为上下文编码器提取图像不同尺度的变形信息
[0017]进一步的,初始值估计阶段,利用已得到的位移对变形图特征信息进行特征扭曲处理得到利用参考图特征信息与扭曲后的变形图特征信息构建相应代价体,进而得到运动信息表达式:
[0018][0019]其中,Deformation是变形量,D
k
‑1是上一层计算出的变形场,C
k
代表相关代价体,代表相关代价体,是变形图扭曲后的特征,描述了扭曲的特征与参考特征之间的差异,F
m
,F
c
,F
φ
,F
δ
,F1,F2表示用卷积层进行线性映射;
[0020]将得到的Deformation与图像变形信息送入更新模块,通过GRU完成更新。
[0021]进一步的,所述GRU公式为:
[0022]z
t
=σ(Conv3×3([h
t
‑1,x
t
],W
z
))
[0023]r
t
=σ(Conv3×3([h
t
‑1,x
t
],W
r
))
[0024][0025][0026]其中,其中,与为图像变形信息在C通道上分割的两部分,Conv3×3表示3
×
3的卷积,[]表示拼接,σ与tanh表示激活函数,W
z
、W
r
、W
h
为不同的权重参数;
[0027]通过GRU公式最终得到h
t
,令D
k
=Conv(h...

【技术保护点】

【技术特征摘要】
1.一种基于深度学习的大变形测量方法,其特征在于,包括以下步骤:S1,利用布尔模型渲染得到参考图,施加变形场给参考图得到变形图,通过参考图、变形图及相应的变形场构建数据集;S2,特征提取阶段:提取S1数据集中图像的特征信息与变形信息;初始值估计阶段:根据图像的特征信息与变形信息完成位移初始值估计;迭代细化阶段:对位移初始值进行迭代细化得到最终位移,完成测量模型构建;S3,对测量模型进行训练优化,得到最终测量模型;S4,采集图像,对采集的图像进行灰度处理,对于一系列帧图像,以第一帧图像作为参考图,后续每一帧图像都作为变形图,将参考图及变形图输入训练好的模型即可得到两帧图像之间的变形场。2.根据权利要求1所述的一种基于深度学习的大变形测量方法,其特征在于,S1中,所述位移随机生成,指定像素坐标系为基准,在变形帧上检索参考帧对应像素,判断更新后的索引坐标是否越界,若发生越界,则重新生成位移。3.根据权利要求1所述的一种基于深度学习的大变形测量方法,其特征在于,特征提取阶段,通过特征编码器提取图像不同尺度的特征信息其中参考图特征信息为变形图特征信息为上下文编码器提取图像不同尺度的变形信息4.根据权利要求1所述的一种基于深度学习的大变形测量方法,其特征在于,初始值估计阶段,利用已得到的位移对变形图特征信息进行特征扭曲处理得到利用参考图特征信息与扭曲后的变形图特征信息构建相应代价体,进而得到运动信息表达式:其中,Deformation是变形量,D
k
‑1是上一层计算出的变形场,C
k
代表相关代价体,代表相关代价体,是变形图扭曲后的特征,描述了扭曲的特征与参考特征之间的差异,F
m
,F
c
,F
φ
,F
δ
,F1,F2表示用卷积层进行线性映射;将得到的Deformation与图像变形信息送入更新模块,通过GRU完成更新。5.根据权利要求4所述的一种基于深度学习的大变形测量方法,其特征在于,所述GRU公式为:z
t
=σ(Conv3×3([h
t
‑1,x
t
],W
z
))r
t
=σ(Conv3×3([h
t
‑1,x
t
],W
r
))))...

【专利技术属性】
技术研发人员:汪连坡杨佳帅
申请(专利权)人:西北工业大学深圳研究院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1