【技术实现步骤摘要】
一种基于多传感器融合的深度估计方法及系统
[0001]本专利技术涉及多传感器融合深度估计
,特别涉及一种基于多传感器融合的深度估计方法及系统
。
技术介绍
[0002]在室外场景中获取深度信息是一项重要的计算机视觉任务,深度信息可以提供大量关于不同物体之间的空间和逻辑关系
。
基于点云或基于立体匹配的方法都是获取场景深度信息的重要手段,已经有许多工作进行了相应的研究
。
但是较少工作关注多传感器融合时传感器故障后的鲁棒性问题
。
[0003]目前,基于卷积神经网络的多传感器融合深度估计技术是多传感器融合深度估计技术中最常采用的一类技术,该类方法通常联合相机与激光雷达作为输入获取稠密的深度估计结果,但是在任一传感器故障时,无法在不切换模型的情况下仅依靠另一传感器完成原有深度估计任务
。
切换模型往往需要花费十数秒时间,限制了此类方法在各个领域,特别是在自动驾驶车辆上的应用
。
技术实现思路
[0004]本专利技术的目的是提供一种基于多传感器融合的深度估计方法及系统,采用多传感器融合深度估计模型和姿态估计模型,优化模型训练策略,在保持深度估计精度的同时,可在任一传感器故障后继续进行单目深度估计
。
[0005]为实现上述目的,本专利技术提供了如下方案:
[0006]一种基于多传感器融合的深度估计方法,包括:
[0007]构建多传感器融合深度估计模型;所述多传感器融合深度估计模型包括第一金字 ...
【技术保护点】
【技术特征摘要】
1.
一种基于多传感器融合的深度估计方法,其特征在于,包括:构建多传感器融合深度估计模型;所述多传感器融合深度估计模型包括第一金字塔编码器
、
第二金字塔编码器和深度解码器;所述第一金字塔编码器和所述第二金字塔编码器由十五层卷积层组成;所述深度解码器由十层卷积层组成;构建相机姿态估计模型;所述相机姿态估计模型包括第三金字塔编码器和姿态解码器;所述第三金字塔编码器由十五层卷积层组成,所述姿态解码器由一层卷积层组成;构建训练数据集;所述训练数据集包括多帧参考图像
、
与多帧所述参考图像对应的激光雷达点云
、
惯性测量单元陀螺仪测量结果
、
惯性测量单元加速度计测量结果和相机内参矩阵;通过所述训练数据集对所述多传感器融合深度估计模型和所述相机姿态估计模型进行训练;通过训练好的多传感器融合深度估计模型进行深度估计
。2.
根据权利要求1所述的基于多传感器融合的深度估计方法,其特征在于,通过所述训练数据集对所述多传感器融合深度估计模型和所述相机姿态估计模型进行训练,具体包括:将当前帧参考图像和当前帧激光雷达点云输入至所述多传感器融合深度估计模型中,输出深度估计结果和激光雷达置信度估计结果;将当前帧参考图像
、
上一帧参考图像
、
当前帧激光雷达点云和上一帧激光雷达点云输入至所述相机姿态估计模型中,输出姿态估计结果;所述姿态估计结果包括相机在上一帧参考图像到当前帧参考图像的相对位姿变化
、
位姿变化协方差估计结果
、
相机运动速度估计结果和相机重力加速度估计结果;根据所述姿态估计结果
、
当前帧惯性测量单元陀螺仪测量结果
、
上一帧惯性测量单元陀螺仪测量结果
、
当前帧惯性测量单元加速度计测量结果和上一帧惯性测量单元加速度计测量结果,计算融合惯性测量单元测量结果后的相机在上一帧参考图像到当前帧参考图像的相对位姿变化;根据所述深度估计结果
、
所述激光雷达置信度估计结果
、
相机在上一帧参考图像到当前帧参考图像的相对位姿变化
、
融合惯性测量单元测量结果后的相机在上一帧参考图像到当前帧参考图像的相对位姿变化以及所述相机内参矩阵,确定损失函数;通过所述损失函数对所述多传感器融合深度估计模型和所述相机姿态估计模型进行反向传播参数更新,并不断从所述训练数据集中获取数据样本进行迭代,直至所述损失函数收敛,完成所述多传感器融合深度估计模型和所述相机姿态估计模型的训练
。3.
根据权利要求2所述的基于多传感器融合的深度估计方法,其特征在于,将当前帧参考图像和当前帧激光雷达点云输入至所述多传感器融合深度估计模型中,输出深度估计结果和激光雷达置信度估计结果,具体包括:将当前帧参考图像输入至所述第一金字塔编码器中,输出多尺度图像特征图;将当前帧激光雷达点云输入至所述第二金字塔编码器中,输出多尺度激光雷达点云特征图;将所述多尺度图像特征图和所述多尺度激光雷达点云特征图输入至所述深度解码器中,输出深度估计结果和激光雷达置信度估计结果
。
4.
根据权利要求2所述的基于多传感器融合的深度估计方法,其特征在于,将当前帧参考图像
、
上一帧参考图像
、
当前帧激光雷达点云和上一帧激光雷达点云输入至所述相机姿态估计模型中,输出姿态估计结果,具体包括:将当前帧参考图像
、
上一帧参考图像
、
当前帧激光雷达点云和上一帧激光雷达点云输入至所述第三金字塔编码器中,输出多尺度姿态特征图;将所述多尺度姿态特征图输入至所述姿态解码器中,输出姿态估计结果
。5.
根据权利要求2所述的基于多传感器融合的深度估计方法,其特征在于,根据所述深度估计结果
、
所述激光雷达置信度估计结果
、
相机在上一帧参考图像到当前帧参考图像的相对位姿变化
、
融合惯性测量单元测量结果后的相机在上一帧参考图像到当前帧参考图像的相对位姿变化以及所述相机内参矩阵,确定损失函数,具体包括:根据所述深度估计结果
、
相机在上一帧参考图像到当前帧参考图像的相对位姿变化
...
【专利技术属性】
技术研发人员:张聪炫,冯诚,陈震,葛利跃,卢锋,王梓歌,胡卫明,吕科,
申请(专利权)人:南昌航空大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。