一种针对位置环境的室内隐蔽点寻找方法技术

技术编号:35851958 阅读:13 留言:0更新日期:2022-12-07 10:36
该发明专利技术公开了一种针对位置环境的室内隐蔽点寻找方法,特别涉及深度学习技术的物体检测以及部件分割方法。本方法首先通过深度摄像头获得彩色图片、深度图片、摄像头位姿信息,通过深度学习算法得到物体的在图片中的位置并计算物体的支撑腿、侧沿在图片中的区域信息,结合深度图得到其实际位置信息,通过对其空间位置信息的判断得到其可能的隐藏区域。位置信息的判断得到其可能的隐藏区域。位置信息的判断得到其可能的隐藏区域。

【技术实现步骤摘要】
一种针对位置环境的室内隐蔽点寻找方法


[0001]本专利技术是一种基于深度相机与机器学习方法的室内隐藏区域寻找算法,特别涉及深度学习技术的物体检测以及部件分割方法。

技术介绍

[0002]在警用及军事用途中,无人平台作为室内探测信息方式,有着极大的发展前景。在无人平台到达位置区域并进行侦查并监控该区域时,其中的一项关键的技术是藏匿位置的寻找,传统方法基于操控者通过摄像头回传的图像对环境信息进行判断,对于自动化算法寻找环境中的隐藏点的方法并无相关研究。
[0003]本专利技术利用深度相机所采集的对齐后彩色图像与深度图像,利用机器学习中的物体识别和部件分割算法,获取室内物品信息以及物体部件信息,通过物体部件的空间位置,判断物体是否可用于隐蔽的空间,综合得出视野内可以进行隐蔽的最佳区域。

技术实现思路

[0004]本专利技术的目的是针对无人平台在室内陌生环境中寻找隐蔽区域的自动识别方法,该方法基于深度相机以及机器学习技术,从深度相机获取的彩色图像与深度图像判断视野中符合的隐蔽区域,满足警用军用作战的需要。
[0005]本专利技术提供的技术方案为一种针对位置环境的室内隐蔽点寻找方法,该方法包括:
[0006]步骤1:构建室内物品识别网络并训练,用于识别室内的物品;
[0007]步骤2:构建室内物体部件分割网络,用于将步骤1识别出的物品分割为不同的部件;
[0008]步骤3:获取无人平台上相机的位姿信息以及深度相机的参数;
[0009]步骤4:使用深度相机获取室内彩色图片与深度图片,并将彩色图片与深度图片进行对齐;
[0010]步骤5:将步骤4中获取的彩色图片输入步骤1的网络,得到室内各物品在图片中的位置,再根据深度图像获取各物品的大小;
[0011]步骤6:根据各物品的位置,对步骤4的彩色图片进行切片,得到的每张图片只包含一个物品;
[0012]步骤7:将步骤6中的单张图片输入到步骤2构建的室内物体部件分割网络中,得到各物品分割后物体支撑腿和物体侧沿的掩膜图像;
[0013]步骤8:使用OpenCV的轮廓提取方法获取物体支撑腿和物体侧沿的区域范围的轮廓和各部件单独掩膜图片,并得到各部件在图片中的位置及大小;
[0014]步骤9:将步骤8中的各部件区域位置与步骤4中获取的深度图片进行对应,得到部件相应的深度信息,并结合步骤3获取的深度相机参数以及深度相机的位姿得到各部件对应像素的空间点云信息;
[0015]步骤9

1:将步骤4中获取的深度图片根据步骤8所获取的各部件区域位置对应获取其对应的深度图对应区域位置;
[0016]步骤9

2:结合步骤3中获取深度相机参数,将步骤9

1中的各部件区域位置的深度像素值通过Opencv双目视觉函数计算得到各像素的相对于相机的空间点云信息;
[0017]步骤9

3:结合步骤3中获取的相机位姿信息对步骤9

2中的各部件点云信息进行坐标器转换,得到各部件相对于小车的点云信息;
[0018]步骤10:根据步骤9中各部件实际位置信息估计预测物体空间内可隐藏区域大小及位置,并判断最优隐藏区域;
[0019]步骤10

1:结合步骤9中得到的物体侧沿的空间点云信息,计算其最低离地高度,得到隐藏区域的高度信息;
[0020]步骤10

2:结合步骤9中得到的支撑腿空间点云信息,将支撑腿点云投影到地平面得到隐藏区域宽度信息;
[0021]步骤10

3:结合小车对隐藏区域空间的要求,根据步骤10

1和步骤10

2的各隐藏区域信息得到最优隐藏区域并得到隐藏区域位置。
[0022]本方法首先通过深度摄像头获得彩色图片、深度图片、摄像头位姿信息,通过深度学习算法得到物体的在图片中的位置并计算物体的支撑腿、侧沿在图片中的区域信息,结合深度图得到其实际位置信息,通过对其空间位置信息的判断得到其可能的隐藏区域。
附图说明
[0023]图1是本专利技术中深度相机采集的原始彩色图像与深度图像
[0024]图2是本专利技术中室内物体分割模型
[0025]图3是本专利技术整体算法流程图4是本专利技术深度相机采集的图像。
具体实施方式
[0026]下面结合附图,对本专利技术中无人平台室内隐藏点寻找方法进行详细说明:
[0027]步骤1:构建室内物品识别网络模型;
[0028]其中,步骤1的具体步骤为:
[0029]步骤1

1:从大型开源室内数据集和从不同角度实际拍摄的室内场景中获取图片并进行标注;
[0030]步骤1

2:对1

1中数据集物体标签进行筛选与合并,构建新的室内数据集;
[0031]步骤1

3:使用1

2的数据集对YoloV5网络进行训练,采用AdaGrad梯度下降算法,对输入图片中的所有非零元素进行随机采样,设置学习率为0.05,在特征向量维度小于300的情况下迭代50次,其他大小的维度迭代100次,直至收敛。
[0032]步骤2:构建室内物体部件分割网络模型;
[0033]其中,步骤2的具体步骤为:
[0034]步骤2

1:对于1

2中新构建的数据集通过标签数据输出为单张物体图片;
[0035]步骤2

2:对于2

1中的图片使用掩膜的方法进行标注,构建室内物体部件分割数据集;
[0036]步骤2

3:构建部件分割网络,物体图片首先进入Resnet50特征提取器,使用1*1,3*3,5*5 不同卷积模块并使其以不同步长进行滑动,将各模块计算得到特征图输入仿Unet++网络中,进行下采样后进行上采样,并将同一层次的上采样与下采样图片进行叠加继续上采样,最后输出结果图;;
[0037]步骤2

4:采用步骤2

2中的数据集对步骤2

3中的网络进行训练;训练的批次大小为2,学习率为0.001,衰减率为0.0005迭代次数为300k,并采用Adam的方式进行迭代;
[0038]步骤3:使用软件获取无人平台上相机的位姿信息以及深度相机的参数;
[0039]其中,步骤3的具体步骤为:
[0040]步骤3

1:使用标定板放置在双目相机前,拍摄并获取标定板图片,计算相机内参与外参并将深度相机与彩色相机的图片进行对齐。
[0041]步骤3

2:将标准长方体放入相机视野中,测量长方体的长宽高尺寸,根据图像的像素空间值与物体实际点值输入校准程序获得深度相机位姿信息;
[0042]步骤4本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种针对位置环境的室内隐蔽点寻找方法,该方法包括:步骤1:构建室内物品识别网络并训练,用于识别室内的物品;步骤2:构建室内物体部件分割网络,用于将步骤1识别出的物品分割为不同的部件;步骤3:获取无人平台上相机的位姿信息以及深度相机的参数;步骤4:使用深度相机获取室内彩色图片与深度图片,并将彩色图片与深度图片进行对齐;步骤5:将步骤4中获取的彩色图片输入步骤1的网络,得到室内各物品在图片中的位置,再根据深度图像获取各物品的大小;步骤6:根据各物品的位置,对步骤4的彩色图片进行切片,得到的每张图片只包含一个物品;步骤7:将步骤6中的单张图片输入到步骤2构建的室内物体部件分割网络中,得到各物品分割后物体支撑腿和物体侧沿的掩膜图像;步骤8:使用OpenCV的轮廓提取方法获取物体支撑腿和物体侧沿的区域范围的轮廓和各部件单独掩膜图片,并得到各部件在图片中的位置及大小;步骤9:将步骤8中的各部件区域位置与步骤4中获取的深度图片进行对应,得到部件相应的深度信息,并结合步骤3获取的深度相机参数以及深度相机的位姿得到各部件对应像素的空间点云信息;步骤9

1:将步骤4中获取的深度图片根据步骤8所...

【专利技术属性】
技术研发人员:刘娟秀张冰松王祥舟杜晓辉郭权浩李良炜张静刘霖刘永
申请(专利权)人:电子科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1