【技术实现步骤摘要】
一种基于多源数据融合的3D目标追踪方法
[0001]本专利技术属于计算机视觉跟踪
,更为具体地讲,涉及一种基于多源数据融合的3D目标追踪方法。
技术介绍
[0002]目标追踪技术是计算机视觉领域十分重要的研究方向,在自动驾驶,自主导航、机器人以及虚拟现实等领域有着广泛的应用,随着人工智能技术与传感器技术的飞速发展、三维点云获取设备逐渐低成本化,视觉任务逐渐由2D转向3D,但是单一的传感器很难应对复杂多变的场景,多传感器融合成为研究的主流方案,期望通过融合不同传感器数据的特性,优势互补,以满足安全性与可靠性的要求。
[0003]过去十几年,基于图像的深度网络技术发展迅速,能够成熟的描述物体的形状、纹理、高级语义等特征,但是由于相机数据是2维平面数据,无法准确的获取目标的精确位置、大小等信息,而且传统摄像头的数据容易受到天气、光照等影响,然而激光雷达,由于自身传感器特性,能够准确的描述周围3D空间的真实空间信息、例如距离深度、表面形状等信息,而且不受光照影响。但是激光雷达由于设备特性,缺乏像图像的原始分辨率、高效的阵列结构,且不包含更多的语义信息,直接对其进行目标的识别和追踪有一定的难度,所以结合两种传感器特性的目标追踪方法能够互补两种传感器的短板,实现对目标精确的识别和追踪。
技术实现思路
[0004]本专利技术的目的在于克服现有技术的不足,提供一种基于多源数据融合的3D目标追踪方法,以实现对目标精准的位置姿态追踪。
[0005]为实现上述专利技术目的,本专利技术一种基于多源数据融 ...
【技术保护点】
【技术特征摘要】
1.一种基于多源数据融合的3D目标追踪方法,其特征在于,包括以下步骤:(1)、在t时刻通过激光雷达采集追踪目标的3D点云数据通过单目相机拍摄追踪目标的2D图像(2)、将t时刻的2D图像输入至2D目标检测网络,输出2D目标检测框R
t
和目标类型向量I
t
;(3)、根据单目相机的出厂参数构建投影矩阵K;(4)、利用投影矩阵K将3D点云数据投影到2D图像上,若投影后的3D点云坐标位于2D目标检测框R
t
内,则认为是兴趣点云,记为P
1t
;否则认为不是兴趣点云;(5)、将兴趣点云P
1t
和目标类型向量I
t
输入至点云分割网络,从而输出概率值P
I
;根据概率值P
I
判断兴趣点云是否为目标点云,若P
I
>0.5,则判断兴趣点云是目标点云,记为否则,判断为背景点云;(6)、将目标点云输入到坐标旋转网络T
‑
Net,通过T
‑
Net计算出目标点云的最佳坐标朝向对应的旋转矩阵K';(7)、将目标点云进行坐标变换,得到新坐标系下的点云数据进行坐标变换,得到新坐标系下的点云数据(8)、将坐标变换后的点云数据输入到目标框回归网络,得到追踪目标在t时刻的观测3D框其中,表示观测3D框距离激光雷达的位置坐标,表示追踪目标的宽长高,表示追踪目标的偏航角;(9)、根据追踪目标在的运动状态,构建运动模型矩阵M、观测模型矩阵H;(10)、设追踪目标在初始时刻t=0时的目标状态Q0,计算追踪目标在t时刻的预测目标状态状态其中,Q
t
‑1表示追踪目标在t
‑
1时刻的最终目标状态;(11)、将观测3D目标框和预测目标状态输入至渐消因子卡尔曼滤波器中,获得追踪目标在t时刻的最终目标状态Q
t
;其中,F
t
为t时刻的卡尔曼增益矩阵,H为观测模型矩阵;(12)、判断时刻t是否为追踪目标的最终时刻,如果是,则结束追踪;否则跳转到(1)。2.根据权利要求1所述的一种基于多源数据融合的3D目标追踪方法,其特征在于,所述观测3D框中各个参数的计算方法为:(2.1)、将t时刻的点云数据和目标类型向量I
t
输入到目标框回归网络;(2.2)、目标框回归网络中的分类网络将偏航角分为η个类别,通过分类网络输出偏航角的类别C
θ
和追踪目标的大小类别C
(w,h,l)
,其中,类别C
θ<...
【专利技术属性】
技术研发人员:闫琛皓,石磊,邵晋梁,麻壮壮,程玉华,
申请(专利权)人:电子科技大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。