本发明专利技术涉及一种基于神经网络和检测算法的边角定位方法及装置,其融合神经网络模型和传统边缘检测算法的优点,首先通过神经网络模型得到实时图像的第一边角数据,再根据该第一边角数据截取实时图像中的局部图像,以通过边缘检测算法得到实时图像的第二边角数据,将二者修正融合,得到修正后的边角数据,即边点、角点、倾斜角度等,相较于单一的神经网络算法或边缘检测算法,其稳定性和准确性更高、受环境干扰性更弱。干扰性更弱。干扰性更弱。
【技术实现步骤摘要】
基于神经网络和检测算法的边角定位方法及装置
[0001]本专利技术涉及控制算法领域,特别是涉及一种工件的边角定位算法。
技术介绍
[0002]车辆、船舶等工程机械的主体框架是由各种各样的工件焊接完成,而这些工件主要来源于钢板切割。通常钢板切割出的工件大小形状多种多样,并且不同工件的工序及用途各不相同,因此需要对各种工件进行喷码标识。一般采用机械喷码,需要先定位喷码位置,再控制喷码装置到指定喷码点位开始喷码工序,效率较人工方式更快,但可能由于钢板在到达喷码点位时本身存在位置角度偏差,而造成喷码位置出现偏差、甚至出现漏喷、错喷现象。
[0003]因此,如何确定钢板的实时位置、是否有角度偏差(边角数据),以自适应调整喷码位置,是工件机械喷码工序中的关键步骤。现有技术中,由于钢板上加工可能存在一定的花纹、划痕等,传统边角检测算法稳定性不够,容易受环境影响;深度学习方法也容易造成边点的误检。因此,如何提供一种精确度高的边点检测算法,确定钢板的实时位姿,以自适应调整喷码位置,是工件机械喷码中亟待解决的重要技术问题。
技术实现思路
[0004]针对上述技术问题,本专利技术提供一种基于神经网络和检测算法的边角定位方法,包括:
[0005]S21:采集待检测主体的样本图像,并对样本图像标注边角数据,以构建训练样本集;
[0006]S22:构建用于学习边角数据的神经网络模型;
[0007]S23:将训练样本集输入神经网路模型,得到训练后的神经网络模型;
[0008]S24:采集待检测主体的实时图像;
[0009]S25:将实时图像,输入训练后的神经网络模型,输出第一边角数据;
[0010]S26:根据第一边角数据,截取实时图像中包括第一边角数据的区域图像;
[0011]S27:检测区域图像,得到第二边角数据;
[0012]S28:将第二边角数据,修正融合第一边角数据,得到修正后的边角数据作为边角定位输出结果。
[0013]进一步地,第一边角数据,包括第一角点;第二边角数据,包括第二角点;
[0014]步骤S27,包括:
[0015]S271:将区域图像,输入边缘检测算法模型中,得到区域图像内的边缘线段;
[0016]S272:根据边缘线段,确定区域图像内的预选角点;
[0017]S273:判断预选角点中,是否存在与第一角点的位置差在第一设定范围内的预选角点;
[0018]S274:若存在,则返回位置差在第一设定范围内的预选角点为第二角点;
[0019]S275:若不存在,则不返回第二角点。
[0020]进一步地,步骤S28,具体为若返回了第二角点,则计算第一角点和第二角点的聚类中心点,作为修正后的边角数据;若不返回第二角点,则以第一角点作为修正后的边角数据。
[0021]进一步地,第一边角数据,还包括第一边点;第二边角数据,还包括第二边点;步骤S27,还包括:
[0022]S276:根据边缘线段,确定边缘线段中,离第一边点最近的点为预选边点;
[0023]S277:判断预选边点与第一边点的位置差是否在第二设定范围内;
[0024]S278:若是,则返回位置差在第二设定范围内的预选边点为第二边点;
[0025]S279:若否,则不返回第二边点。
[0026]进一步地,步骤S28,具体为计算第一边点和第二边点的聚类中心点,作为修正后的边角数据。
[0027]进一步地,步骤S271:还包括:计算区域图像内边缘点所包裹的边缘面积;
[0028]步骤S272,包括:
[0029]S2721:找到最大边缘面积所对应的图像中心矩;
[0030]S2722:计算图像中心矩和边缘线段的距离,对距离在一定范围内的边缘进行融合,消除不连续边;
[0031]S2723:根据消除不连续边的边缘线段,确定区域图像内的预选角点。
[0032]进一步地,还包括:
[0033]S29:根据修正后的边角数据,输出倾斜角度。
[0034]进一步地,步骤S25,包括:
[0035]S251:将实时图像,输入训练后的神经网络模型;
[0036]S252:判断是否得到第一边角数据;
[0037]S253:若是,则输出待检测工件的第一边角数据;
[0038]S254:若否,则增强实时图像,再输入训练后的神经网络模型,输出第一边角数据。
[0039]进一步地,增强实时图像的方法,包括:亮度增强、HSV颜色空间增强、上下/水平反转增强、高斯拉普拉斯增强。
[0040]另一方面,本专利技术还提供一种基于神经网络和检测算法的边角定位装置,其特征在于,所述边角定位装置,用于实现上述任意的边角定位方法,包括:
[0041]样本采集模块,用于采集样本图像,并对样本图像标注边角数据,以构建训练样本集;
[0042]模型构建模块,用于构建用于学习边角数据的神经网络模型;
[0043]模型训练模块,用于将训练样本集输入神经网路模型,得到训练后的神经网络模型;
[0044]图像采集模块,用于采集待检测主体的实时图像;
[0045]第一边角数据输出模块,用于将实时图像,输入训练后的神经网络模型,输出待检测工件的第一边角数据;
[0046]图像截取模块,用于根据第一边角数据,截取实时图像中包括第一边角数据的区域图像;
[0047]第二边角数据输出模块,用于检测区域图像,得到待检测工件的第二边角数据;
[0048]修正模块,用于将第二边角数据,修正融合第一边角数据,得到修正后的边角数据作为边角定位输出结果。
[0049]本专利技术提供一种基于神经网络和检测算法的边角定位方法及装置,其融合神经网络模型和传统边缘检测算法的优点,首先通过神经网络模型得到实时图像的第一边角数据,再根据该第一边角数据截取实时图像中的局部图像,以通过边缘检测算法得到实时图像的第二边角数据,将二者修正融合,得到修正后的边角数据,可选但不仅限于包括边点数据、角点数据、倾斜角度等,相较于单一的神经网络模型或边缘检测算法,其稳定性和准确性更高、受环境干扰性更弱。
附图说明
[0050]图1为本专利技术示例的钢板上零件分布图;
[0051]图2为本专利技术工件喷码的校正方法的一个实施例的流程图;
[0052]图3为本专利技术示例的无偏移钢板上待喷码工件的喷码示意图;
[0053]图4为本专利技术示例的有偏移钢板上待喷码工件的喷码示意图;
[0054]图5为本专利技术示例的钢板上待喷码工件的喷码点位图;
[0055]图6为本专利技术工件喷码的校正方法的步骤S1的一个实施例的流程图;
[0056]图7为本专利技术待喷码工件的自身喷码信息的示意图;
[0057]图8为本专利技术提供的工件喷码的校正方法的步骤S11,即工件喷码的识别方法的一个实施例的流程图;
[0058]图9为本文档来自技高网...
【技术保护点】
【技术特征摘要】
1.一种基于神经网络和检测算法的边角定位方法,其特征在于,包括:S21:采集待检测主体的样本图像,并对样本图像标注边角数据,以构建训练样本集;S22:构建用于学习边角数据的神经网络模型;S23:将训练样本集输入神经网路模型,得到训练后的神经网络模型;S24:采集待检测主体的实时图像;S25:将实时图像,输入训练后的神经网络模型,输出第一边角数据;S26:根据第一边角数据,截取实时图像中包括第一边角数据的区域图像;S27:检测区域图像,得到第二边角数据;S28:将第二边角数据,修正融合第一边角数据,得到修正后的边角数据作为边角定位输出结果。2.根据权利要求1所述的边角定位方法,其特征在于,第一边角数据,包括第一角点;第二边角数据,包括第二角点;步骤S27,包括:S271:将区域图像,输入边缘检测算法模型中,得到区域图像内的边缘线段;S272:根据边缘线段,确定区域图像内的预选角点;S273:判断预选角点中,是否存在与第一角点的位置差在第一设定范围内的预选角点;S274:若存在,则返回位置差在第一设定范围内的预选角点为第二角点;S275:若不存在,则不返回第二角点。3.根据权利要求2所述的边角定位方法,其特征在于,步骤S28,具体为若返回了第二角点,则计算第一角点和第二角点的聚类中心点,作为修正后的边角数据;若不返回第二角点,则以第一角点作为修正后的边角数据。4.根据权利要求3所述的边角定位方法,其特征在于,第一边角数据,还包括第一边点;第二边角数据,还包括第二边点;步骤S27,还包括:S276:根据边缘线段,确定边缘线段中,离第一边点最近的点为预选边点;S277:判断预选边点与第一边点的位置差是否在第二设定范围内;S278:若是,则返回位置差在第二设定范围内的预选边点为第二边点;S279:若否,则不返回第二边点。5.根据权利要求4所述的边角定位方法,其特征在于,步骤S28,具体为计算第一边点和第二边点的聚类中心点,作为修正后的边角数据。6.根据权利要求2所...
【专利技术属性】
技术研发人员:彭斯然,黄金,冀春锟,
申请(专利权)人:湖南视比特机器人有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。