一种无人物流小车环境感知方法及系统技术方案

技术编号:30017146 阅读:25 留言:0更新日期:2021-09-11 06:27
本发明专利技术提供一种无人物流小车环境感知方法及系统,所述方法包括:通过至少两个激光雷达扫描无人物流小车周围环境信息,生成环境点云图像,环境点云图像包括多个点云数据,至少两个激光雷达的测距范围不相同;确定多个点云数据中的目标地面点云集和目标非地面点云集;通过超声波雷达获得无人物流小车第一局部环境信息,并将第一局部环境信息与所述目标非地面点云集进行融合,生成目标点云图像;根据至少两个激光雷达分别采集目标点云图像中同一障碍物信息的至少两个坐标值;将至少两个坐标值按照最优分布式估计融合算法进行融合,生成融合坐标值,并将融合坐标值作为障碍物信息的坐标值。本发明专利技术提高了无人物流小车环境感知的鲁棒性和精度。鲁棒性和精度。鲁棒性和精度。

【技术实现步骤摘要】
一种无人物流小车环境感知方法及系统


[0001]本专利技术涉及无人驾驶
,具体涉及一种无人物流小车环境感知方法及系统。

技术介绍

[0002]近年来,随着电商和网上购物的发展,越来越多的人们选择在网上购物。同时,由于信息交流和货物流通的加速,越来越多的文件传递和商品流通也越来越依赖于通过物流进行运输。因此,物流一线人员的工作日益增多。时常有一些暴力快递的事件发生,引发了人们对于物流行业特别是快递员甚至物流行业的不满。因此,无人物流小车应运而生。
[0003]但是现有技术中的无人物流车存在感知探测范围小,车身周边存在盲区大,从而导致无人物流小车的环境感知技术存在鲁棒性差,检测精度低等技术问题。

技术实现思路

[0004]本专利技术提供一种无人物流小车环境感知方法及系统,旨在解决现有技术中存在的无人物流小车的环境感知技术存在鲁棒性差,检测精度低等技术问题。
[0005]一方面,本专利技术提供一种无人物流小车环境感知方法,包括:
[0006]通过至少两个激光雷达扫描无人物流小车周围环境信息,生成环境点云图像,所述环境点云图像包括多个点云数据,所述至少两个激光雷达的测距范围不相同;
[0007]确定所述多个点云数据中的目标地面点云集和目标非地面点云集;
[0008]通过超声波雷达获得无人物流小车第一局部环境信息,并将所述第一局部环境信息与所述目标非地面点云集进行融合,生成目标点云图像;
[0009]根据所述至少两个激光雷达分别采集所述目标点云图像中同一障碍物信息的至少两个坐标值;
[0010]将所述至少两个坐标值按照最优分布式估计融合算法进行融合,生成融合坐标值,并将所述融合坐标值作为所述障碍物信息的坐标值。
[0011]在本专利技术一种可能的实现方式中,所述通过至少两个激光雷达生成无人物流小车环境点云图像包括:
[0012]通过第一激光雷达扫描无人物流小车周围环境信息,生成初始点云图像;
[0013]通过GPS/IMU对所述初始点云图像进行畸变校正,生成校正点云图像;
[0014]通过第二激光雷达采集无人物流小车第二局部环境信息,并将所述第二局部环境信息和所述校正点云图像进行融合,生成所述环境点云图像。
[0015]在本专利技术一种可能的实现方式中,所述通过GPS/IMU对所述初始点云图像进行畸变校正包括:
[0016]通过GPS/IMU分别采集无人物流小车在所述第一激光雷达的扫描周期内当前帧的第一位姿信息以及与所述当前帧相邻的前一帧的第二位姿信息;
[0017]通过预设的坐标转换、第一位姿信息和第二位姿信息对初始点云图像进行畸变校
正。
[0018]在本专利技术一种可能的实现方式中,所述第一位姿信息包括第一横摆角、第一俯仰角、第一航向角、位移,所述第二位姿信息包括第二横摆角、第二俯仰角、第二航向角;所述通过预设的坐标转换、第一位姿信息和第二位姿信息对初始点云图像进行畸变校正具体为:
[0019]p

=R
i
p
i
+T
i
[0020][0021][0022][0023]式中,p

为畸变校正后的初始点云图像中各个点云数据的坐标值;R
i
为总旋转矩阵;p
i
为畸变校正前的初始点云图像中各个点云数据的坐标值;T
i
为位移矩阵;为姿态矩阵;C为第一激光雷达的扫描周期;[]T
为转置矩阵;t
i
当前帧和与所述当前帧相邻的前一帧的时间差;为第一横摆角;为第一俯仰角;为第一航向角量;α为第二横摆角;β为第二俯仰角;γ为第二航向角;x,y,z为位移的三个坐标分量。
[0024]在本专利技术一种可能的实现方式中,所述确定所述多个点云数据中的目标地面点云集和目标非地面点云集包括:
[0025]确定初始平面模型;
[0026]确定种子地面点云集和种子非地面点云集;
[0027]对所述初始平面模型进行优化;
[0028]计算所述种子地面点云集中的点云数据与优化后的平面模型之间的正交投影距离,若所述正交投影距离小于阈值距离,则所述点云数据属于种子地面点云集,若所述正交投影距离大于或等于阈值距离,则所述点云数据属于种子非地面点云集;
[0029]判断所述初始平面模型的优化次数是否小于阈值次数,若小于,则再次对所述初始平面模型进行优化;若不小于,则停止对所述初始平面模型进行优化;所述种子地面点云集和所述种子非地面点云集分别为所述目标地面点云集和目标非地面点云集。
[0030]在本专利技术一种可能的实现方式中,所述确定种子地面点云集和种子非地面点云集包括:
[0031]将所述多个点云数据按照预设的高度顺序进行排序;
[0032]计算所述多个点云数据的平均高度;
[0033]遍历所述多个点云数据,将高度小于所述平均高度的点云数据作为初始地面点集;
[0034]计算所述初始地面点集中的点云数据与所述初始平面模型的正交投影距离,若所述正交投影距离小于阈值距离,则所述点云数据属于所述种子地面点云集,若所述正交投影距离大于或等于阈值距离,则所述点云数据属于所述种子非地面点云集。
[0035]在本专利技术一种可能的实现方式中,所述第一激光雷达为十六线机械式激光雷达,
所述第二激光雷达为四线固态激光雷达。
[0036]在本专利技术一种可能的实现方式中,所述十六线机械式激光雷达的测距范围为20m;所述四线固态激光雷达的测距范围为50m。
[0037]另一方面,本专利技术还提供一种无人物流小车环境感知系统,包括:
[0038]第一感知模块,用于通过至少两个激光雷达扫描无人物流小车周围环境信息,生成环境点云图像,所述环境点云图像包括多个点云数据,所述至少两个激光雷达的测距范围不相同;
[0039]分割模块,用于确定所述多个点云数据中的目标地面点云集和目标非地面点云集;
[0040]第二感知模块,用于通过超声波雷达获得无人物流小车第一局部环境信息,并将所述第一局部环境信息与所述目标非地面点云集进行融合,生成目标点云图像;
[0041]目标检测模块,用于根据所述至少两个激光雷达分别采集所述目标点云图像中同一障碍物信息的至少两个坐标值;
[0042]融合模块,用于将所述至少两个坐标值按照最优分布式估计融合算法进行融合,生成融合坐标值,并将所述融合坐标值作为所述障碍物信息的坐标值。
[0043]本专利技术通过至少两个激光雷达扫描无人物流小车周围环境信息,生成环境点云图像,并在确定多个点云数据中的目标地面点云集和目标非地面点云集后,通过超声波雷达获得无人物流小车第一局部环境信息,并将第一局部环境信息与目标非地面点云集进行融合,生成目标点云图像。通过至少两个激光雷达和超声波雷达共同生成目标点云图像,可提高无人物流小车环境感知的鲁棒性,并提高检测精度。
[0044]进本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种无人物流小车环境感知方法,其特征在于,包括:通过至少两个激光雷达扫描无人物流小车周围环境信息,生成环境点云图像,所述环境点云图像包括多个点云数据,所述至少两个激光雷达的测距范围不相同;确定所述多个点云数据中的目标地面点云集和目标非地面点云集;通过超声波雷达获得无人物流小车第一局部环境信息,并将所述第一局部环境信息与所述目标非地面点云集进行融合,生成目标点云图像;根据所述至少两个激光雷达分别采集所述目标点云图像中同一障碍物信息的至少两个坐标值;将所述至少两个坐标值按照最优分布式估计融合算法进行融合,生成融合坐标值,并将所述融合坐标值作为所述障碍物信息的坐标值。2.根据权利要求1所述的无人物流小车环境感知方法,其特征在于,所述通过至少两个激光雷达生成无人物流小车环境点云图像包括:通过第一激光雷达扫描无人物流小车周围环境信息,生成初始点云图像;通过GPS/IMU对所述初始点云图像进行畸变校正,生成校正点云图像;通过第二激光雷达采集无人物流小车第二局部环境信息,并将所述第二局部环境信息和所述校正点云图像进行融合,生成所述环境点云图像。3.根据权利要求2所述的无人物流小车环境感知方法,其特征在于,所述通过GPS/IMU对所述初始点云图像进行畸变校正包括:通过GPS/IMU分别采集无人物流小车在所述第一激光雷达的扫描周期内当前帧的第一位姿信息以及与所述当前帧相邻的前一帧的第二位姿信息;通过预设的坐标转换、第一位姿信息和第二位姿信息对初始点云图像进行畸变校正。4.根据权利要求3所述的无人物流小车环境感知方法,其特征在于,所述第一位姿信息包括第一横摆角、第一俯仰角、第一航向角、位移,所述第二位姿信息包括第二横摆角、第二俯仰角、第二航向角;所述通过预设的坐标转换、第一位姿信息和第二位姿信息对初始点云图像进行畸变校正具体为:p

=R
i
p
i
+T
iii
式中,p

为畸变校正后的初始点云图像中各个点云数据的坐标值;R
i
为总旋转矩阵;p
i
为畸变校正前的初始点云图像中各个点云数据的坐标值;T
i
为位移矩阵;为姿态矩阵;C为第一激光雷达的扫描周期;[]
T
为转置矩阵;t
i
当前帧和与所述当前帧相邻的前一帧的时间差;为第一横摆角;为第一俯仰角;为第一航向角量;α为第二横摆角;β为第二俯仰角;γ为第二航向角;x,y,z为位移的三个坐标分量;R

【专利技术属性】
技术研发人员:杨波杨涛
申请(专利权)人:武汉理工大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1