基于时空相关性的自适应交通视频实时去雾方法,包括:步骤1、估算时间片初始帧的车道空间区域、雾霾影响标志值T、初始透射率校正值X和透射率分布情况;步骤2、提取视频中的直线车道,确定一个有限的车道区域;步骤3、通过从原图像中找到雾霾干扰最小的区域,获取其中最亮的像素值作为大气光强;步骤4、划分空间范围,每一个空间范围都设定一个标定摄像头,用该摄像头拍摄的图像计算雾霾影响标志值T、图像对比度及初始透射率校正值,应用到该区域的其他摄像头;步骤5、获得每个图像块的最优透射率值的透射率分布,采用导向滤波对块状的透射率分布进行优化;步骤6、对车道空间区域部分的原图像像素值求解,还原出车道部分的无雾图像。
【技术实现步骤摘要】
本专利技术设及一种交通视频实时去雾方法。
技术介绍
基于视频处理和视觉技术的方法被越来越广泛的应用于交通监控系统中,但是由 于交通视频拍摄的是户外场景,经常会受到多变的天气的影响。目前,雾霸天气频发,而雾 霸环境下获取的交通视频图像存在模糊退化的现象,导致图像的清晰度较低,从而明显影 响交通视频图像处理的各类服务,包括车辆检测、车辆目标特征提取、车辆跟踪等操作,出 现无法有效地识别车辆、难W提取车辆的细节特征等问题。分析雾霸交通视频图像的特征 后发现,提高图像清晰度、去除雾霸干扰,才能有效确保车辆的准确识别和特征提取,因此, 提出有效的交通视频去雾方法对于雾霸环境下的交通视频图像处理有十分重要的意义。 目前,很多研究者都针对单幅图像的去雾方法展开研究。单幅图像的去雾算法主 要分为两类,基于图像增强的方法和基于图像复原的方法。基于图像增强的方法是从人类 的视觉感受出发,通过直接增强图像对比度、修正图像的色彩等信息,进行雾霸天图像质量 的改善,其中最常见的方法就是直方图均衡算法和基于Retinex理论的图像增强算法。但 是,由于该类方法从图像处理角度出发,缺乏了对雾霸影响图像的成因的分析,所W,在图 像还原过程中可能出现失真或过度增强的效果;如果想改进算法的去雾效果,会增加算法 的复杂度,无法适应实时性需求。基于图像复原的方法从图像降质的逆过程入手,通过建立 物理模型来描述图像退化的详细过程,符合雾霸天图像还原的实际情况,是目前常用的图 像去雾方法。该类方法最关键的步骤是如何获得退化模型的参数,早期提出的方法都需要 提前进行图像采集或者设置固定采集装置,因此无法做到随时随地处理各类图像,缺乏适 应性;随后,越来越多的研究者开始采用一定的先验知识或者提出假设条件,使算法在实际 应用时更具有可行性。总体来说,基于图像复原的图像去雾方法可W有效地实现图像去雾, 但是也存在一定的局限。如果想要获得更精细的模型参数,就需要利用外部的高精密仪器, 进行前期的数据整理,在实际应用过程中,外部仪器设施的布置W及复杂的前期数据整理, 都使得该方法无法适应于各种未知场景,缺少拓展性。若是在求解模型参数时借助最优化 工具,就会带来巨大的计算复杂度和时间复杂度。当然,也可W采用一定的先验知识或者给 出假设条件、弱化限制来获取参数,但是随之而来的问题就是算法的鲁椿性较弱,在浓雾、 浓霸时算法失效,不适合对未知环境下的退化图像进行处理。在单幅图像去雾算法的基础 上,视频去雾算法的研究也在逐渐深入。在视频去雾的过程中,将视频图像看做单独的帖图 像,可直接应用单幅图像去雾算法,但是如何保证视频去雾的实时性是算法的关键。 综合来看,现有的图像去雾或者视频去雾算法,主要存在=个方面的问题;实时性 较差、还原后对比度失真、无法消除浓雾的影响。分析后两个问题的本质,其实是图像去雾 算法无法适应不同雾霸干扰程度的图像。
技术实现思路
本专利技术要克服现有技术的上述缺点提供一种基于时空相关性的自适应交通视频 实时去雾方法,提高算法对不同程度雾霸干扰图像的去雾效果,加强算法自适应性,并利用 交通视频的时空相关特性提高算法实时性。 本专利技术所述的的主要步骤如图1 所示。 步骤1、利用交通视频时间连续性,设立时间片,估算时间片初始帖的车道空间区 域、雾霸影响标志值T、初始透射率校正值X和透射率分布情况;在该段时间内其他图像帖 的去雾还原过程中,采用初始帖计算获得的参数。[000引一般情况下,交通视频都由固定在道路上的监控摄像头拍摄,一段时间内的场景 相对统一,所W在考虑时间连续性时,可W将一个时间片段内的交通视频作为一个整体进 行分析。因此,我们通过设立时间片,直接利用时间片初始帖估算该时间片内所有视频帖的 参数,包括该段视频的车道空间区域范围、雾霸影响标志值T、初始透射率校正值X和透射 率分布情况。 步骤2、采用一种基于直线提取的交通视频图像车道空间分离算法,提取视频中的 直线车道,确定一个有限的车道区域。 由于一般拍摄的交通视频都有包含车道隔离带或其他背景信息,而在进行交通视 频检测时,车辆识别、跟踪或事件检测主要的感兴趣区域都为车道部分,因此,可W利用车 道的直线特征分离出车道空间,单独对车道进行去雾处理,减小待处理的图像,从而加速去 雾。 提取交通视频图像车道空间的具体步骤如下: Stepl;通过边缘检测,获取视频图像中的边缘信息; St巧2 ;利用化U曲直线拟合,筛选掉角度明显有误的直线,获得候选的车道边界; Step3;找到候选车道边界中最左侧和最右侧的直线,设定为车道边界,并且找到 车道边界的交点; Step4;由车道边界的交点及图像边界获得一个矩形规则车道区域,若交点在图像 的范围外,则默认车道空间为整个图像空间。 步骤3、采用一种基于四叉树细分的层次捜索方法进行大气光强估计,通过从原图 像中找到雾霸干扰最小的区域,获取其中最亮的像素值作为大气光强。 图像去雾方法的实现W求解雾天成像模型(1)为基础[001 引 I(p) = (1) 其中,p表示图像中的某个像素点;I(p)表示全部反射光线经过衰减后最终达到 成像设备时的光线强度,即生成的带雾图像;t(p)表示达到成像设备且没有被散射的那部 分光线的传播率,即光线穿透雾霸的能力参数,可称为透射率且t(p)G。J(p)表示 景物目标直接反射的光强,即需要恢复的真实无雾图像;A描述的是观测者视线方向无穷 远处的光照强度,可表示为全局的大气光强。因此,要求解模型(1)获取真实图像J(P),需 要首先获得大气光强A及透射率分布t(P)。 本步骤进行大气光强估计,具体操作如下: Stepl;将图像均匀分成四个区域; Step2 ;每个区域赋予一个权值S。权值S为该区域的像素均值与像素值标准差的 差值。 St巧3 ;选择权值最大的区域作为下一个待处理的子图像。 St巧4 ;重复操作Stepl~St巧3,直至子图像的大小小于一个预先设定的阔值,可 W设定为子图像长*宽小于200像素。[002引在最后获取的区域中,找到像素I(p),使||化(口),1肖(口),扣任))-(255,255,255)II最小,令该像素值为大气光强值。 步骤4、根据交通监控摄像头的空间分布情况,划分空间范围,每一个空间范围都 设定一个标定摄像头,用该摄像头拍摄的图像计算雾霸影响标志值T、图像对比度及初始透 射率校正值,应用到该区域的其他摄像头。 随着交通网络布局的日益复杂,交通监控系统设置的数量也逐渐增加,很多时候 同一路段有多个监控摄像头,甚至同一路段的不同车道也有专口的监控装置。该些摄像头 拍摄的交通视频在物理上处于同一个场景空间,而且同一地区的摄像头其硬件指标通常情 况下都是相同的。而天气情况也是一种具有空间区域特征的指标,比如在一定区域空间范 围内的雾霸浓度都是类似的。对于完整的交通视频处理系统,系统内会接入多路摄像头数 据,很多分布于同一空间区域的摄像头拍摄出的视频图像质量相近,因此,可W利用摄像头 的空间区域分布特性加速多路摄像头的去雾处理速度,实现整个交通视频处理系统的性能 优化。[002引我们将空间距离相近的摄像头划分为统一区域,取其中的一个摄像头为标定摄像 头,用该摄像头拍摄的图像计算雾霸影本文档来自技高网...
【技术保护点】
基于时空相关性的自适应交通视频实时去雾方法,包括如下步骤:步骤1、利用交通视频时间连续性,设立时间片,估算时间片初始帧的车道空间区域、雾霾影响标志值T、初始透射率校正值X和透射率分布情况;在该段时间内其他图像帧的去雾还原过程中,采用初始帧计算获得的参数;一般情况下,交通视频都由固定在道路上的监控摄像头拍摄,一段时间内的场景相对统一,所以在考虑时间连续性时,可以将一个时间片段内的交通视频作为一个整体进行分析;因此,通过设立时间片,直接利用时间片初始帧估算该时间片内所有视频帧的参数,包括该段视频的车道空间区域范围、雾霾影响标志值T、初始透射率校正值X和透射率分布情况;步骤2、采用一种基于直线提取的交通视频图像车道空间分离算法,提取视频中的直线车道,确定一个有限的车道区域;由于一般拍摄的交通视频都有包含车道隔离带或其他背景信息,而在进行交通视频检测时,车辆识别、跟踪或事件检测主要的感兴趣区域都为车道部分,因此,可以利用车道的直线特征分离出车道空间,单独对车道进行去雾处理,减小待处理的图像,从而加速去雾;提取交通视频图像车道空间的具体步骤如下:Step21:通过边缘检测,获取视频图像中的边缘信息;Step22:利用Hough直线拟合,筛选掉角度明显有误的直线,获得候选的车道边界;Step23:找到候选车道边界中最左侧和最右侧的直线,设定为车道边界,并且找到车道边界的交点;Step24:由车道边界的交点及图像边界获得一个矩形规则车道区域,若交点在图像的范围外,则默认车道空间为整个图像空间;步骤3、采用一种基于四叉树细分的层次搜索方法进行大气光强估计,通过从原图像中找到雾霾干扰最小的区域,获取其中最亮的像素值作为大气光强;图像去雾方法的实现以求解雾天成像模型(1)为基础I(p)=J(p)t(p)+A(1‑t(p)) (1)其中,p表示图像中的某个像素点:I(p)表示全部反射光线经过衰减后最终达到成像设备时的光线强度,即生成的带雾图像;t(p)表示达到成像设备且没有被散射的那部分光线的传播率,即光线穿透雾霾的能力参数,可称为透射率且t(p)∈[0,1];J(p)表示景物目标直接反射的光强,即需要恢复的真实无雾图像;A描述的是观测者视线方向无穷远处的光照强度,可表示为全局的大气光强;因此,要求解模型(1)获取真实图像J(p),需要首先获得大气光强A及透射率分布t(p);本步骤进行大气光强估计,具体操作如下:Step31:将图像均匀分成四个区域;Step32:每个区域赋予一个权值S;权值S为该区域的像素均值与像素值标准差的差值;Step33:选择权值最大的区域作为下一个待处理的子图像;Step4:重复操作Step1~Step3,直至子图像的大小小于一个预先设定的阈值,可以设定为子图像长*宽小于200像素;在最后获取的区域中,找到像素I(p),使||(Ir(p),Ig(p),Ib(P))‐(255,255,255)||最小,其中Ir(p)、Ig(p)、Ib(P)分别是像素I(p)的R、G、B分量,令该像素值为大气光强值;步骤4、根据交通监控摄像头的空间分布情况,划分空间范围,每一个空间范围都设定一个标定摄像头,用该摄像头拍摄的图像计算雾霾影响标志值T、图像对比度及初始透射率校正值,应用到该区域的其他摄像头;随着交通网络布局的日益复杂,交通监控系统设置的数量也逐渐增加,很多时候同一路段有多个监控摄像头,甚至同一路段的不同车道也有专门的监控装置;这些摄像头拍摄的交通视频在物理上处于同一个场景空间,而且同一地区的摄像头其硬件指标通常情况下都是相同的;而天气情况也是一种具有空间区域特征的指标,比如在一定区域空间范围内的雾霾浓度都是类似的;对于完整的交通视频处理系统,系统内会接入多路摄像头数据,很多分布于同一空间区域的摄像头拍摄出的视频图像质量相近,因此,可以利用摄像头的空间区域分布特性加速多路摄像头的去雾处理速度,实现整个交通视频处理系统的性能优化;将空间距离相近的摄像头划分为统一区域,取其中的一个摄像头为标定摄像头,用该摄像头拍摄的图像计算雾霾影响标志值T、图像对比度及初始透射率校正值,应用到该区域的其他摄像头;因此,如果判定该摄像头不是标定摄像头,则可根据系统中已近获取该区域标定摄像头的相关参数,直接进行该摄像头透射率分布估算及优化;步骤5、采用自适应透射率估计方法,在获取雾霾影响标志值T及恒定的初始透射率校正值X后计算初始透射率;然后在图像对比度评价值及图像信息丢失情况之间寻找平衡点,在以初始透射率为起始值的固定范围内使代价函数E最小,从而获得每个图像块的最优透射率值的透射率分布;最后,采用导向滤波对块状的透射率分布进行优化;(a)获取雾霾影响标志值本专利技术引入图像雾霾影响标志值T和初始透射率校正值X,通过原图像的性质估算出初始透射率值,从而在不...
【技术特征摘要】
【专利技术属性】
技术研发人员:董天阳,吴佳敏,范菁,曹斌,
申请(专利权)人:浙江工业大学,
类型:发明
国别省市:浙江;33
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。