当前位置: 首页 > 专利查询>长安大学专利>正文

一种基于无人机的交通运行风险实时识别方法技术

技术编号:31829459 阅读:13 留言:0更新日期:2022-01-12 13:04
本发明专利技术涉及智能交通技术领域,公开了一种基于无人机的交通运行风险实时识别方法,所述方法包括:步骤1、识别车辆位置;步骤2、获取车辆运行速度;步骤3、获取车关联车辆;步骤4、预测碰撞位置;步骤5、获取风险梯度;步骤6、获取综合风险值;步骤7、将像素上的风险值映射为像素灰度,将灰度图映射为颜色梯度生成热度图像;步骤8、热力图与原始图像帧叠加,连续播放生成风险热度化视频。生成风险热度化视频。生成风险热度化视频。

【技术实现步骤摘要】
一种基于无人机的交通运行风险实时识别方法


[0001]本专利技术涉及智能交通
,具体的是一种基于无人机的交通运行风险实时识别方法。

技术介绍

[0002]交通事故一直受到广泛关注,每年交通事故造成的人员和财产损失十分巨大。研究人员一直致力于感知预测交通事故的发生,主动感知风险可以极大程度降低损失。如果能够识别交通运行中某一高风险区域,那么相应的措施就可以被用来降低区域存在的风险,减少事故发生的可能性,因此交通运行高风险区域的识别具有重要意义。
[0003]然而,现有技术首先往往需要历史事故数据作为支撑,对未来可能有事故发生的区域进行预测,但是历史事故数据需要长时间积累才能有较为可靠的预测结果;其次,现有事故预测技术缺乏对事故的深度考虑,可能造成事故风险预测偏差。目前事故预测方法基本上以车道某一路段为最小单位给出事故风险概率,没有深度考虑路段中车辆之间发生碰撞的风险;最后,现有的事故预测技术大多以某一时间段一个路段碰撞概率值为碰撞风险的输出结果,当需要对较大范围内事故风险进行识别的时候,现有事故预测技术不能对区域风险有直观的展现,造成交通管理过程仅能以数字判断风险,缺乏对交通运行风险有直观的比较,并且难以对风险集中区域的成因进行解读。
[0004]随着无人机拍摄技术的广泛应用,高质量的视频为交通运行风险的识别可视化提供了条件。首先,利用无人机对区域交通运行状况采集时,画面能够对较大的范围进行覆盖,可以获得交通运行中全面的原始数据。其次,交通状况随时间变化,风险的积聚也在不断变化,与其他固定传感器相比,无人机采集交通运行状态的时间、经济成本小,无人机起降的准备工作相对简单,能够保证随时起降,保证采集交通运行状态的实时性,风险识别呈现的实时性。并且,无人机拍摄不易被遮挡物干扰,精确的车辆运行信息可以从无人机实时视频中获取。对于需要进行风险识别显示的区域,结合机器视觉技术,风险区域可以自动被识别,并且在原始视频中得以实时展现。最后,无人机可以快速进行部署采集交通状况,展现风险区域,为快速反应提供依据。未来该技术可以应用到快速评估展现各类交通运行风险中,为交通运行安全的提升提供支持。

技术实现思路

[0005]为解决上述
技术介绍
中提到的不足,本专利技术的目的在于提供一种基于无人机的交通运行风险实时识别方法,所述方法包括:步骤1、识别车辆位置;步骤2、获取车辆运行速度;步骤3、获取车关联车辆;步骤4、预测碰撞位置;步骤5、获取风险梯度;步骤6、获取综合风险值;步骤7、将像素上的风险值映射为像素灰度,将灰度图映射为颜色梯度生成热度图像;步骤8、热力图与原始图像帧叠加,连续播放生成风险热度化视频。
[0006]本专利技术的目的可以通过以下技术方案实现:
[0007]一种基于无人机的交通运行风险实时识别方法,所述方法包括如下步骤:
[0008]步骤1、识别车辆位置;
[0009]步骤2、获取车辆运行速度:根据匹配成功的车辆对象匹配前后最小外接矩形中心的像素位置t到t+1坐标变化,以及视频帧率rate,画面与真实世界中距离的比例s计算车辆当前的运行速度v,
[0010][0011]步骤3、获取车关联车辆;
[0012]步骤4、预测碰撞位置:对于任意一个方位的关联车辆M,根据M和车辆对象S在t时刻的最小外接矩形中心位置(x
M
,y
M
),(x
S
,y
S
)推算预计碰撞位置(x
C
,y
C
),其中:
[0013][0014][0015]步骤5、获取风险梯度:以预计碰撞位置与关联车辆M和车辆对象S中速度较小的车辆最小外接矩形中心点连线为半径,预计碰撞位置为圆心,计算圆形区域内沿径向方向碰撞时间的变化梯度,C点半径范围内某一点(x
A
,y
A
)碰撞风险由公式给出:
[0016][0017]步骤6、获取综合风险值:将车辆对象S与所有关联方位车辆之间在任意像素点的碰撞风险求平均值,像素点风险计算方法如下式:
[0018][0019]U是t时刻检测区域内所有的碰撞点,N为t时刻碰撞点的数量和。
[0020]步骤7、将像素上的风险值映射为像素灰度,将灰度图映射为颜色梯度生成热度图像;
[0021]步骤8、热力图与原始图像帧叠加,连续播放生成风险热度化视频。
[0022]进一步的,所述识别车辆位置的具体方法如下:
[0023]步骤1.1、无人机在待识别区域上空悬停,无人机视频画面传输到地面计算机设备;
[0024]步骤1.2、识别可疑车辆对象;
[0025]步骤1.3、过滤疑似车辆对象中不符合实际情况的车辆对象;
[0026]步骤1.4、准备继续识别;
[0027]步骤1.5、车辆对象匹配。
[0028]5、根据权利要求2所述的一种基于无人机的交通运行风险实时识别方法,其特征在于,所述获取获取车关联车辆的方法为:
[0029]利用OpenCV识别白色车道线,划分车道区域,在已存车辆对象集合中,判断任意一个车辆对象S所处车道位置,如果车辆对象S最小外接矩形边界处于某一车道内,分别搜索
车辆对象在同一车道内前方最近的车辆对象S+1,后方最近的车辆对象S

1,右侧车道前方最近的车辆对象R+1,后方最近的车辆对象R

1,左侧车道前方最近的车辆对象L+1,后方最近的车辆对象L

1,将搜索到的六个方位的车辆对象分别标记为关联车辆,若车辆对象处于最外侧或最内侧车道时,关联方位相应地减少为四个。
[0030]进一步的,将像素上的风险值映射为像素灰度的具体方法为:
[0031]某一点风险值从小到大变化,风险梯度从0到1变化,相应的像素灰度从0到255变化,像素点灰度映射关系如下式:
[0032]Gray
A
=R
A
×
255
[0033]进一步的,所述将灰度图映射为颜色梯度生成热度图像的具体方法为:某一点像素灰度从0到255变化映射到彩色热度图中,表现为颜色由蓝色转变为红色,颜色越靠近蓝色表明风险越低,越靠近红色表明风险越高。最终所有像素点根据映射关系获取相应的颜色,组成彩色热度图像。
[0034]进一步的,所述步骤8的具体方法为:将热度图像像素RGB值乘以系数α(0<α<1),原始帧图像像素RGB乘以1

α,然后两图像素值相加,得到风险识别结果视频中的一帧图像,连续生成帧后便生成实时风险变化视频;视频中红色集中区域即是对高风险区域的实时识别显示,绿色区域风险相对较低,蓝色区域则为风险最低的区域;随着视频不断播放,不同区域反映风险程度的颜色也会随交通状况发生改变,捕捉高风险区域。
[0035]本专利技术的有益效果:
[0036]1、基于车辆间事故风险的区域风险实时变化识别及可视化呈现;
[0037]本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于无人机的交通运行风险实时识别方法,其特征在于,所述方法包括如下步骤:步骤1、识别车辆位置;步骤2、获取车辆运行速度:根据匹配成功的车辆对象匹配前后最小外接矩形中心的像素位置t到t+1坐标变化,以及视频帧率rate,画面与真实世界中距离的比例s计算车辆当前的运行速度v,步骤3、获取车关联车辆;步骤4、预测碰撞位置:对于任意一个方位的关联车辆M,根据M和车辆对象S在t时刻的最小外接矩形中心位置(x
M
,y
M
),(x
S
,y
S
)推算预计碰撞位置(x
C
,y
C
),其中:),其中:步骤5、获取风险梯度:以预计碰撞位置与关联车辆M和车辆对象S中速度较小的车辆最小外接矩形中心点连线为半径,预计碰撞位置为圆心,计算圆形区域内沿径向方向碰撞时间的变化梯度,C点半径范围内某一点(x
A
,y
A
)碰撞风险由公式给出:步骤6、获取综合风险值:将车辆对象S与所有关联方位车辆之间在任意像素点的碰撞风险求平均值,像素点风险计算方法如下式:U是t时刻检测区域内所有的碰撞点,N为t时刻碰撞点的数量和。步骤7、将像素上的风险值映射为像素灰度,将灰度图映射为颜色梯度生成热度图像;步骤8、热力图与原始图像帧叠加,连续播放生成风险热度化视频。2.根据权利要求1所述的一种基于无人机的交通运行风险实时识别方法,其特征在于,所述识别车辆位置的具体方法如下:步骤1.1、无人机在待识别区域上空悬停,无人机视频画面传输到地面计算机设备;步骤1.2、识别可疑车辆对象;步骤1.3、过滤疑似车辆对象中不符合实际情况的车辆对象;步骤1.4、准备继续识别;步骤1.5、车辆对象匹配。3.根据权利要求2所述的一种基于无人机的交通运行风险实时识别方法,其特征在于,所述获取获取车关联车辆的方法为:利用Open...

【专利技术属性】
技术研发人员:康凯王驰恒朱彤魏田正
申请(专利权)人:长安大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1