【技术实现步骤摘要】
一种无监督的合成到真实LiDAR点云场景流估计方法
[0001]本专利技术涉及计算机视觉
,具体为一种无监督的合成到真实LiDAR点云场景流估计方法。
技术介绍
[0002]场景流的定义为连续两帧输入(如RGB
‑
D图像,三维点云)间的三维运动场(motion field),表示逐点在三维空间的运动矢量。通常场景流被用于描述三维物体在一定时间间隔内的运动状态,且可被用于估计物体未来的运动趋势,对于机器人导航、自动驾驶等领域具有重要实际意义。早期工作通常从RGB
‑
D图像中估计场景流,而随着三维传感技术的普及和深度学习领域的发展,利用深度学习方法从连续采集的点云帧中估计逐点场景流逐渐成为主流。由于点云能够更加准确地描述三维场景,点云场景流估计任务已受到众多研究者的关注。
[0003]对于点云场景流估计任务,一个关键难点在于标注数据的获取。由于主流场景流估计网络模型的性能依赖于大量标注数据,即需要对连续采集的点云进行逐点三维运动矢量的标注,其标注代价十分高昂。一种实用且被广泛采用的方法是利用合成点云数据,实现自动生成点云场景流标签。在合成点云数据集上训练模型,进而利用训练好的模型泛化推广到真实数据集,这种方法被称为合成到真实点云场景流估计。虽然这种利用合成数据集降低人工标注需求的方法,在真实数据集上具有一定的泛化能力。但随着真实点云数据集逐渐走向大规模化,现有方法逐渐不能满足这些大规模点云数据集上场景流估计的需求。其原因在于:首先,目前已有的用于点云场景流估计的合成数据集 ...
【技术保护点】
【技术特征摘要】
1.一种无监督的合成到真实LiDAR点云场景流估计方法,其特征在于:所述无监督的合成到真实LiDAR点云场景流估计方法包括以下步骤:第一步:利用GTA
‑
V游戏引擎,基于Scrip Hook V编译生成.asi格式动态链接库文件并拷贝到游戏路径下,启动GTA
‑
V;第二步:游戏启动后,通过Socket发送采集数据指令,开始构建自动驾驶场景,并连续采集以玩家所驾驶车辆一定范围内的点云,保存为.bin文件,同时记录下逐点的游戏实体属性以及当前所驾驶车辆位姿信息,保存为.txt文件;第三步:利用逐点游戏实体属性与车辆位姿信息,计算所采集的连续点云间场景流,将每连续两帧点云和对应场景流一起保存为.npz文件,用于后续网络模型训练;第四步:将第三步得到的合成点云和场景流数据作为训练集,进行场景流估计模型的训练,得到预训练模型;第五步:将第四步得到的预训练模型加载到学生模型和教师模型进行初始化,其中学生模型通过训练过程损失函数更新,教师模型为学生模型参数的指数移动平均;第六步:将第三步得到的合成数据输入学生模型,计算L1损失;第七步:将真实数据和变换后的真实数据分别输入教师模型和学生模型,得到教师预测结果和学生预测结果;第八步:对第七步得到的教师预测结果进行物体形变约束,得到形变约束后教师预测结果;第九步:对第八步得到的形变约束后教师预测结果进行帧间对应关系优化,得到优化后教师预测结果;第十步:对第七步得到的学生预测结果和第九步得到的优化后教师预测结果计算一致性损失;第十一步:更新学生模型和教师模型参数,训练一定轮数后分别保存学生和教师模型,即可用于真实点云数据集上的场景流估计。2.根据权利要求1所述的一种无监督的合成到真实LiDAR点云场景流估计方法,其特征在于:所述第二步中采用模拟64线LiDAR扫描的方式获取点云数据,所保存的文件包含逐点的xyz坐标。3.根据权利要求1所述的一种无监督的合成到真实LiDAR点云场景流估计方法,其特征在于:所述第三步中计算连续两帧点云间的场景流时,对于第一帧中的某一坐标为p
i
的点,首先读取它所在的游戏实体属性,进而在第二帧中查找是否存在具有相同ID的游戏实体,若存在,则记该实体在两帧点云中的位置分别为和通过姿态角度求得的旋转矩阵分别为和则该点的场景流向量f
i
可通过下式求得:对于在第二帧中不存在相同ID游戏实体的点,则利用两帧对应时刻所驾驶车辆位姿信息计算自我运动(ego
‑
motion),所求得运动矢量作为场景流向量。4.根据权利要求1所述的一种无监督的合成到真实LiDAR点云场景流估计方法,其特征在于:所述第四步中所使用的场景流估计模型为HPLFlowNet,预训练轮数为40轮。5.根据权利要求1所述的一种无监督的合成到真实LiDAR点云场景流估计方法,其特征
在于:所述第五步中教师模型和学生模型具有和第四步中场...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。