基于深度学习的计算机辅助干涉仪的自动装调方法技术

技术编号:25691369 阅读:52 留言:0更新日期:2020-09-18 21:02
本发明专利技术公开了一种基于深度学习的计算机辅助干涉仪的自动装调方法。采集干涉图及其三维坐标作为训练数据;基于K均值聚类算法对扩充后的训练数据进行分类,获得数据集;采用k折交叉验证法将数据集分为训练集和验证集,并利用每折得到的训练集和验证集对VGG‑16网络模型进行训练;将实时采集的干涉图输入到训练好的VGG‑16网络模型,得到干涉仪的失调量。本发明专利技术不需要对具体的干涉图偏差量进行求解,充分利用训练好的网络分类数据,通过对干涉仪所成的干涉图分类确定干涉仪所处位置坐标,进而控制待测镜移动到达准确位置,充分发挥了深度卷积网络的优势,具有鲁棒性较佳,准确度高的优点。

【技术实现步骤摘要】
基于深度学习的计算机辅助干涉仪的自动装调方法
本专利技术属于图像处理与计算机视觉
,具体为一种基于深度学习的计算机辅助干涉仪的自动装调方法。
技术介绍
计算机辅助装调技术(ComputerAidedAlignment,CAA)是指脱离传统装调中主要依靠人的手动操作和操作经验的、借助计算机和精密移动设备的新技术,在光学领域,各种精密的、复杂的设备和器件使用极为广泛,依靠传统装调方法准确度低,耗时长,采用计算机辅助装调技术能够实时求解光学系统的位置失调量,然后控制机械结构调整光学元件位置。计算机辅助装调技术使光学系统有机地与电、机、软相结合,更加的智能化与自动化。目前光学元件检测领域常用的计算机辅助装调方法主要有逆向优化法、下山单纯形法、灵敏度矩阵法等方法。这三种算法的原理都是由计算机建立仿真模型,将干涉仪的检测结果与计算机的仿真结果进行对比,调整评价函数直到其值为0,然后求解位置失调量大小。当位置失调量过多的时候,其计算效率会大大下降,实时性得不到保障,并且这类方法大多需要研究Zernike多项式与波像差理论,求解系统失调量,本身在公式上已经存在近似误差。基于深度学习的方法一般包括特征提取,分类器训练和检测三个部分。近些年来,随着技术的发展,深度学习在图像处理领域几乎成为最热门的方向之一。将深度学习用于光学领域的计算机辅助装调技术也开始蓬勃发展起来。2015年西班牙的EstherOteo和JosepArasa提出了利用人工神经网络进行光学系统失调量计算的新策略,基于数学上多项式逼近泽尼克系数的不确定性,研究通过非线性函数逼近来提高多项式的逼近结果,并利用神经网络计算系统失调量中的倾斜值和离心率,进而调整光学元件的位置。该方法提高了Zernike多项式的拟合精度,但是没有从根本上解决计算机仿真模型的误差。
技术实现思路
本专利技术的目的在于提供了一种基于深度学习的计算机辅助干涉仪的自动装调方法,以提高计算机辅助干涉仪自动装调方法的速度和准确性。实现本专利技术目的的技术方案为:一种基于深度学习的计算机辅助干涉仪的自动装调方法,具体步骤为:步骤1:采集干涉图及其三维坐标作为训练数据;步骤2:基于K均值聚类算法对扩充后的训练数据进行分类,获得数据集;步骤3:采用k折交叉验证法将数据集分为训练集和验证集,并利用每折得到的训练集和验证集对VGG-16网络模型进行训练;步骤4:将实时采集的干涉图输入到训练好的VGG-16网络模型,得到干涉仪的失调量。优选地,采集干涉图及其三维坐标作为训练数据的具体步骤为:步骤11:将待测镜固定在调整架上,调整待测镜,使得干涉仪图像采集窗口出现同心圆环形干涉条纹,调整待测镜分别在X、Y、Z轴方向进行移动,采集每次移动对应的干涉图及待测镜位置的三维坐标;步骤12:对采集到的干涉图像进行数据增强实现数据扩充。优选地,基于K均值聚类算法对扩充后的训练数据进行分类的具体方法为:将三维坐标数据分为K组,随机选取K个对象作为初始的聚类中心,计算每个坐标与各个聚类中心之间的欧式距离,把每个坐标分配给距离它最近的聚类中心;每分配一个坐标,根据聚类中现有的坐标重新计算聚类中心,直到没有(或聚类中心再发生变化;根据坐标的聚类结果,将坐标对应的干涉图进行聚类得到数据集,将类别作为数据集的标签值。优选地,采用k折交叉验证法将数据集分为训练集和验证集,并利用每折得到的训练集和验证集对VGG-16网络模型进行训练的具体方法为:步骤31:对数据集进行预处理,包括对数据集进行均衡化以及自适应裁剪;步骤32:对每类数据集进行等间距划分;步骤33:从每类数据集中随机挑选出一份数据集合并作为验证集,其余都作为训练集;步骤34:对全连接网络部分进行冻结,将训练集与网络损失函数输入VGG-16网络的特征提取卷积神经网络部分,并将对应的类别作为标签值,训练特征提取卷积神经网络;步骤35:解除对全连接层的冻结,将网络权重更改为步骤34训练得到的权重,将训练集与网络损失函数输入VGG-16网络模型进行第二次训练;步骤36:返回步骤33进行下一折的训练,将总损失函数最小的一折的权重作为VGG-16网络模型最优权重。优选地,步骤34中初始学习率设为0.01,并在特征提取卷积神经网络最后一层以及其前一层之间加入Dropout,对神经元之间的连接进行选择性失活。优选地,步骤35中初始学习率设定为1e-4。本专利技术与现有技术相比,其显著优点为:本专利技术不需要对具体的干涉图偏差量进行求解,借助深度学习算法对干涉图进行分类,确定系统失调量的范围,提高了计算机辅助干涉仪自动装调方法的速度和准确性。附图说明图1为一种基于深度学习的计算机辅助干涉仪的自动装调方法流程图。图2为VGG-16的具体结构示意图。图3为k折交叉验证法的流程图。具体实施方式如图1所示,一种基于深度学习的计算机辅助干涉仪的自动装调方法,包含训练和测试两个阶段,具体步骤为:步骤1:利用干涉仪采集干涉图及其三维坐标作为训练数据。光线从干涉仪发出,经待测镜反射后进入干涉仪,在干涉仪内部形成干涉,经CCD收集图像,在干涉仪配套的计算机中显示干涉图。利用干涉仪采集干涉图及其三维坐标作为训练数据包含以下步骤:步骤11:将待测镜固定在调整架上,调整待测镜,使得干涉仪图像采集窗口出现同心圆环形干涉条纹,然后微调待测镜的X、Y、Z坐标,直到条纹位于中心且最为稀疏,将此位置作为原点。调整待测镜分别在X、Y、Z轴方向进行移动,采集每次移动对应的干涉图及待测镜位置的三维坐标。采集至少8000张X、Y、Z坐标不同的干涉图。步骤12:对采集到的干涉图像进行数据增强实现数据扩充:考虑到这个图片集数据的有限性,为了避免网络过拟合,获得更多的数据进行学习与处理,对图像进行诸如翻转、旋转、缩放、裁剪、添加噪声等数据增强操作来扩充图片集,使得神经网络具有更好的泛化效果。步骤2:基于K均值聚类算法对扩充后的训练数据进行分类,具体为:将三维坐标数据分为K组,随机选取K个对象作为初始的聚类中心,然后计算每个坐标与各个聚类中心之间的欧式距离,把每个坐标分配给距离它最近的聚类中心。聚类中心以及分配给它们的坐标就代表一个聚类。每分配一个坐标,根据聚类中现有的坐标重新计算聚类中心。这个过程将不断重复直到满足没有(或最小数目)聚类中心再发生变化。根据坐标的聚类结果,将坐标对应的干涉图也进行聚类,即干涉图按照坐标进行聚类,成为后续网络训练的数据集,而将类别作为数据集的标签值记录下来。步骤3:采用k折交叉验证法将数据集分为训练集和验证集,并利用每折得到的训练集和验证集对VGG-16网络模型进行训练;所述VGG-16网络模型基于VGG-16框架实现。VGG网络是由Simonyan和Zisserman在文献《VeryDeepConvolutionalNetworksforLargeScal本文档来自技高网
...

【技术保护点】
1.一种基于深度学习的计算机辅助干涉仪的自动装调方法,其特征在于,具体步骤为:/n步骤1:采集干涉图及其三维坐标作为训练数据;/n步骤2:基于K均值聚类算法对扩充后的训练数据进行分类,获得数据集;/n步骤3:采用k折交叉验证法将数据集分为训练集和验证集,并利用每折得到的训练集和验证集对VGG-16网络模型进行训练;/n步骤4:将实时采集的干涉图输入到训练好的VGG-16网络模型,得到干涉仪的失调量。/n

【技术特征摘要】
1.一种基于深度学习的计算机辅助干涉仪的自动装调方法,其特征在于,具体步骤为:
步骤1:采集干涉图及其三维坐标作为训练数据;
步骤2:基于K均值聚类算法对扩充后的训练数据进行分类,获得数据集;
步骤3:采用k折交叉验证法将数据集分为训练集和验证集,并利用每折得到的训练集和验证集对VGG-16网络模型进行训练;
步骤4:将实时采集的干涉图输入到训练好的VGG-16网络模型,得到干涉仪的失调量。


2.根据权利要求1所述的基于深度学习的计算机辅助干涉仪的自动装调方法,其特征在于,采集干涉图及其三维坐标作为训练数据的具体步骤为:
步骤11:将待测镜固定在调整架上,调整待测镜,使得干涉仪图像采集窗口出现同心圆环形干涉条纹,调整待测镜分别在X、Y、Z轴方向进行移动,采集每次移动对应的干涉图及待测镜位置的三维坐标;
步骤12:对采集到的干涉图像进行数据增强实现数据扩充。


3.根据权利要求1所述的基于深度学习的计算机辅助干涉仪的自动装调方法,其特征在于,基于K均值聚类算法对扩充后的训练数据进行分类的具体方法为:
将三维坐标数据分为K组,随机选取K个对象作为初始的聚类中心,计算每个坐标与各个聚类中心之间的欧式距离,把每个坐标分配给距离它最近的聚类中心;每分配一个坐标,根据聚类中现有的坐标重新计算聚类中心,直到没有(或聚类中心再发生变化;根据坐标的聚类结果,将坐标对应的干涉图进行聚类得...

【专利技术属性】
技术研发人员:王志浩马骏李镇洋祁琨雄
申请(专利权)人:南京理工大学
类型:发明
国别省市:江苏;32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1