一种基于光流改进与Yolov3的烟雾检测方法技术

技术编号:29086212 阅读:16 留言:0更新日期:2021-06-30 09:50
一种基于光流改进与Yolov3的烟雾检测方法,包括以下步骤:1)改进光流动态区域一次筛选:利用改进的光流算法对图像中的动态前景进行框定,过滤掉静态背景并减少静态背景的误检;2)模型训练:收集大量的数据样本,对样本进行标定,对不同参数设定下的模型进行对比选定最终训练参数和模型,为后续烟雾二次筛选做准备;3)Yolov3模型二次筛选:对获取到的动态前景输入到训练好的网络模型,进行烟雾的二次筛选并最终框定烟雾区域。本发明专利技术检测结果精确,漏检和误检率相对较小;可以很好地完成早期烟雾的检测。雾的检测。雾的检测。

【技术实现步骤摘要】
一种基于光流改进与Yolov3的烟雾检测方法


[0001]本专利技术属于视频分析领域,具体涉及一种视频中根据烟雾识别来预警火灾的方法。

技术介绍

[0002]烟雾检测是防范早期火灾的一种有效手段,目前阶段烟雾检测主要采用烟雾特征、分类辨别、动态目标提取等方法。对烟雾的有效识别可以大程度减少火灾带来的影响。目前,基于视频的烟雾检测方法正成为国内外学者的研究热点。
[0003]在国外学者对烟雾检测进行了研究并实现了相关场景的应用。Dimitropoulos等人利用统计特征的方式,提出了利用HSV颜色模型中的3个通道以及HOG特征形成4维3D块组成一个张量,然后提出高阶线性动态系统(h

LDS)进行分析;Yin等人提出了基于循环神经网络的烟雾检测网络;Qureshi
[16]等人采用背景建模的方法,提取前景目标检测和分割移动区域。对于广阔开放空间的烟雾检测,Verstockt等人利用专门的深度成像相机进行视频信息采集并提出了一种多模态的烟雾检测算法。
[0004]在国内,李笋等人提出了一种基于烟雾色彩图像增强和MSER检测的烟雾算法,通过增强色彩变换突出烟雾区域用于图像分割并检测;Yuan
[19]等人通过分析烟雾的亮度和饱和度,利用积分图提取Haar特征进行烟雾检测;通过大量特征提取和分类的文献表明,通过提取单独一个或者多个特征和图像预处理方面的增强并不能满足综合复杂环境的烟雾检测。随着深度学习方法在目标识别领域的广泛应用,通过大数据样本训练、自学习,以实现特征提取和分类器的联合优化,弥补了目标复杂特征刻画带来的不足。陈俊周
[20]等人采用时空卷积网络进行烟雾检测,其中空域CNN和时域CNN分别关注静态纹理和动态纹理,后者基于前者二次识别;从文献实验结果可观察,深度学习方法相较于特征提取方法有着更好的准确性。
[0005]综上所述,现有的烟雾检测技术取得了快速的发展,但是在识别效果上也常常存在着不确定性。烟雾形态变化频繁,如淡薄烟雾和浓烟在特征上呈现差异较大,这导致特征不能反应烟雾本质而造成识别上的误检;不同算法在不同场景下识别效果各异;烟雾的识别通常需要很强的场景针对性,针对不同场景情况下需要依据优化算法和模型或特定的识别策略来提升识别效率。

技术实现思路

[0006]为了克服已有技术的不足,本专利技术提供了一种基于光流改进与Yolov3的烟雾检测方法,基于改进的光流算法提取图像的动态前景,然后利用训练好的网络模型进行烟雾检测,最终确定图像中的烟雾,为安防系统提供早期火灾检测。
[0007]本专利技术解决其技术问题所采用的技术方案是:
[0008]一种基于光流改进与Yolov3的烟雾检测方法,包括以下步骤:
[0009]1)改进光流动态区域一次筛选:利用改进的光流算法对图像中的动态前景进行框
定,过滤掉静态背景并减少静态背景的误检;
[0010]2)模型训练:收集大量的数据样本,对样本进行标定,对不同参数设定下的模型进行对比选定最终训练参数和模型,为后续烟雾二次筛选做准备;
[0011]3)Yolov3模型二次筛选:对获取到的动态前景输入到训练好的网络模型,进行烟雾的二次筛选并最终框定烟雾区域。
[0012]进一步,所述步骤1)的处理过程为:
[0013]1.1)输入视频帧,对视频中的图像以左上角为原点O建立直角坐标系,计算超定方程组,记录下每一个特征点横坐标放入特征点坐标集合X:{x1,x2,x3,...,x
n
}纵坐标放入Y:{y1,y2,y3,...,y
n
}。估计光流的运动轨迹,同时显示光流的运动轨迹;
[0014]1.2)通过集合X计算出相对于y轴的最近距离x
min
和最远距离x
max
,同理,通过集合Y计算出相对于x轴的最近距离y
min
和最远距离y
max

[0015]1.3)通过(x
min
,y
min
)和(x
max
,y
max
)两组坐标划定动态区域[x
max
:x
min
,y
max
:y
min
]为烟雾动态前景区域,考虑到由于烟雾本身的如浓度、速度等形态学特征导致光流算法特征点的漏检情况,引进α和β两个调节量用于扩大动态前景区,改进后的动态前景区域为[x
max
+β:x
min

β,y
max
+α:y
min

α],当烟雾应用场景为室外等受风影响较大烟雾变化较快的场景α和β需设定较小,动态区域明显;当烟雾检测应用场景为室内等受风影响较小烟雾变化缓慢的场景α和β需设定较大来防止前景区域过小来带的检测不准的情况;经实验发现根据α和β两个调节量的改变可以更好地适合不同烟雾场景下的检测以达到更好的效果;
[0016]1.4)将划定后的区域作为第一次烟雾的疑似区域进行图像分割,在原图的基础上提取出图片中的动态前景区域,通过大量实验表明,改进的光流算法可以有效准确地完成图片的动态前景的提取。
[0017]所述步骤2)中,模型训练的过程如下:
[0018]2.1)实验数据集准备
[0019]该实验的数据集一共含有6000张图片,其中训练集有4800张测试集1200张。数据集制作场景选取了操场、室内、树林、大楼火灾常发地点,利用烟饼道具制作烟雾,同时为了提高数据集的全面性,也加入了来源于网络且符合实验要的烟雾图片;
[0020]2.2)实验环境
[0021]本章实验仿真结果基于Inter(R)Core(TM)i7

7700HQ@2.80GHz处理器,16GB内存,同时在硬件基础上搭建了实验所需的软件环境:操作系统Ubuntu 16.04,编程语言Python 3.6、使用PyCharm 2018开发环境、OpenCV、CUDA和Keras;
[0022]2.3)模型训练
[0023]通过对常见的火灾场景进行数据采集和检测实验,最终选定4个场景的烟雾视频进行切分成视频帧、标定并制作成烟雾数据集;数据集中一共有4800张不同分辨率且场景各异的烟雾图片,然后输入到Yolov3网络模型中进行训练,步骤如下:
[0024]2.3.1数据集制作:首先在不同场景进行烟雾的视频录制,对录制完成的视频进行视频帧抽取;然后,对数据集图片进行图片预处理包括图像增强、滤波去噪、图片筛选等操作;最后,对数据集图片的烟雾区域标定和对应的烟雾坐标信息作为训练模型的输入;
[0025]2.3.2模型训练:反复多次训练模型和参数调整,结合同步训练结果和网络本身结构设定网络参数,通过图可以看出当训练轮越多时,损失函数越小和期望输出也就越接近。
[0026]所述步骤3)中,将通过光流改进本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于光流改进与Yolov3的烟雾检测方法,其特征在于,所述方法包括以下步骤:1)改进光流动态区域一次筛选:利用改进的光流算法对图像中的动态前景进行框定,过滤掉静态背景并减少静态背景的误检;2)模型训练:收集大量的数据样本,对样本进行标定,对不同参数设定下的模型进行对比选定最终训练参数和模型,为后续烟雾二次筛选做准备;3)Yolov3模型二次筛选:对获取到的动态前景输入到训练好的网络模型,进行烟雾的二次筛选并最终框定烟雾区域。2.如权利要求1所述的一种基于光流改进与Yolov3的烟雾检测方法,其特征在于,所述步骤1)的处理过程为:1.1)输入视频帧,对视频中的图像以左上角为原点O建立直角坐标系,计算超定方程组,记录下每一个特征点横坐标放入特征点坐标集合X:{x1,x2,x3,...,x
n
}纵坐标放入Y:{y1,y2,y3,...,y
n
},估计光流的运动轨迹,同时显示光流的运动轨迹;1.2)通过集合X计算出相对于y轴的最近距离x
min
和最远距离x
max
,同理,通过集合Y计算出相对于x轴的最近距离y
min
和最远距离y
max
;1.3)通过(x
min
,y
min
)和(x
max
,y
max
)两组坐标划定动态区域[x
max
:x
min
,y
max
:y
min
]为烟雾动态前景区域,考虑到由于烟雾本身的如浓度、速度等形态学特征导致光流算法特征点的漏检情况,引进α和β两个调节量用于扩大动态前景区,改进后的动态前景区域为[x
max
+β:x
min

β,y
max
+α:y
min

α],当烟雾应用场景为室外等受风影响较大烟雾变化较快的场景α和β需设定较小,动态区域明显;当烟雾检测应用场景为室内等受风影响较小烟雾变化缓慢的场景α和β需设定较大来防止前景区域过小来带的检测不准的情况;经实验发现根据α和β两个调...

【专利技术属性】
技术研发人员:李伟吕哲品
申请(专利权)人:浙江工业大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1