System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于双目视觉的雷达罩修型全局定位方法技术_技高网

一种基于双目视觉的雷达罩修型全局定位方法技术

技术编号:40117274 阅读:9 留言:0更新日期:2024-01-23 20:06
本发明专利技术公开了一种基于双目视觉的雷达罩修型全局定位方法,包括:对机器人周围环境进行特征提取和特征分割处理,将所有局部地图的坐标进行转换并融合生成全局地图。之后通过多个双目相机对工作空间场景进行拍摄,来获取加工场景的原始图像。对过的的原始图像进行图像预处理。针对真实加工场景对YOLOv5s算法中的优化器进行改进,利用优化的YOLOv5s视觉处理算法对场景中的部件进行训练,利用训练后的模型对场景中的各加工部件进行定位,计算出机器人到不同特征部件的距离,确定出机器人本身的位置。本方法利用双目视觉和改进YOLOv5s视觉处理算法实现对雷达罩修型场景的全局定位。

【技术实现步骤摘要】

本专利技术涉及航空航天异形复合材料构件的修型加工领域,具体涉及一种基于双目视觉的雷达罩修型全局定位方法


技术介绍

1、在航空零部件的加工过程中,随着制造业的自动化与智能化的水平不断提高,越来越多的工厂开始大量引进包含工业机器人的自动化加工。当机器人参与到自动化加工中时,就对机器人能够精准定位提出来了很高的要求。但目前,大部分机器人应用还停留在需要人工示教的水平,没有完全释放工业机器人的最大潜能。导致目前工业机器人对工作场景一旦发生变化就不能很好地完成预选设定的任务。在自适应加工机器人应用中的普遍问题中也是如此。

2、为了提高在航空异形复合材料构件修型过程中的机器人全局定位精度,研究一种结合双目视觉和地图构建的全局定位方法,实现在异形复合材料雷达罩修型过程的修型机器人全局定位。


技术实现思路

1、本专利技术是采取以下技术手段实现的,一种基于双目视觉的雷达罩修型全局定位方法:

2、步骤一、将雷达罩修型机器人所处环境进行特征提取处理,进而生成较为紧凑的地图,为雷达罩修型机器人的定位提供更直接的参考。将角点视为周围环境的最大特征点,通过计算周围环境的特征点即角点的算子完成雷达罩修型场景的特征检测,得到周围环境特征点。

3、步骤二、通过自适应曲率对机器人周围环境特征进行分割。

4、步骤三、生成基于周围环境特征点的局部地图,最终将局部地图的坐标系进行转换和融合获取全新的全局地图。

5、步骤四、双目相机图像检测,利用双目相机对雷达罩修型机器人所在场景进行图像拍摄。在同一平面不同角度布置多个双目相机。打开双目相机,测试双目相机两个画面是否正常显示,也可进行棋盘格拍照。确定相机画面显示无误后方可向下进行,利用双目相机拍摄多张棋盘格图片;

6、步骤五、双目图像分割。利用opencv对拍摄雷达罩修型场景的图片进行分割,将左右半张图片进行分割,用于后续标定;

7、步骤六、双目标定,获取双目相机的内外参数。首先利用matlab工具箱进行双目标定。基于matlab工具箱中图像处理和计算机视觉下的stereo camera calibration工具,打开并将分割后的图片导入。设置参数,选择2coefficients选项即可;在matlab工具箱的控制台分别输入相机参数获取指令即stereoparams.cameraparameters1.intrinsicmatrix和stereoparams.cameraparameters2.intrinsicmatrix获得左右相机的参数。

8、为了获取左相机的畸变系数:

9、[k1,k2,p1,p2,k3]

10、其中k1、k2、k3、p1和p2均为相机畸变系数。

11、在matlab中分别输入左相机畸变系数获取指令stereoparams.cameraparameters1.radialdistortion和stereoparams.cameraparameters1.tangentialdistortion。同理分别输入右相机畸变系数获取指令即stereoparams.cameraparameters2.radialdistortion和stereoparams.cameraparameters2.tangentialdistortion获取右相机的畸变系数:

12、[k1,k2,p1,p2,k3]

13、其中k1、k2、k3、p1和p2均为相机畸变系数。

14、再分别输入stereoparams.rotationofcamera2和stereoparams来获取双目的旋转矩阵和平移矩阵,将以上参数填写进相应的stereoconfig.py文件里;

15、步骤七、对yolov5s算法中的优化器进行改进,提出一种迭代速度更快的优化器,使用yolov5s视觉处理算法对场景中的各个部件进行训练。步骤八、进行双目测距。首先进行极线校正。之后进行立体匹配与视差图计算,使用sgm双目立体匹配算法对极线校正后的图像进行立体匹配,此步骤利用opencv中的sgbm进行处理,生成视差图。最后进行深度图计算。利用视差和公式计算场景中的像素深度,获得机器人到特征部件的距离。

16、步骤九、利用多个双目相机测得修型机器人到不同特征部件的距离,根据特征部件在地图上的位置坐标,计算出修型机器人当前的实际位置。

17、本方法具有快速、便捷、准确的特点,基于激光地图构建与双目视觉测距对机器人进行定位,可以解决异形曲面不易定位的问题,适用于异形复合材料构件修型过程中修型机器人全局定位。

本文档来自技高网...

【技术保护点】

1.一种基于双目视觉的雷达罩修型全局定位方法,其特征在于,该方法包括如下步骤,

2.根据权利要求1所述一种基于双目视觉的雷达罩修型全局定位方法,其特征在于,使用优化YOLOv5s视觉处理算法对场景中的各个部件进行训练;训练的模型准确对多级部件的组件进行分类,精准识别场景中的特征部件。

3.根据权利要求1所述一种基于双目视觉的雷达罩修型全局定位方法,其特征在于,利用多个双目相机测得修型机器人到不同特征部件的距离,根据特征部件在地图上的位置坐标,计算出修型机器人当前的实际位置。

4.根据权利要求1所述一种基于双目视觉的雷达罩修型全局定位方法,其特征在于,在Matlab工具箱的控制台分别输入相机参数获取指令获得左右相机的参数;

【技术特征摘要】

1.一种基于双目视觉的雷达罩修型全局定位方法,其特征在于,该方法包括如下步骤,

2.根据权利要求1所述一种基于双目视觉的雷达罩修型全局定位方法,其特征在于,使用优化yolov5s视觉处理算法对场景中的各个部件进行训练;训练的模型准确对多级部件的组件进行分类,精准识别场景中的特征部件。

3.根据权利要求1所述...

【专利技术属性】
技术研发人员:赵永胜刘云松王建华宫佳俊牛娜娜
申请(专利权)人:北京工业大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1