System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于双光融合的远距离视频火灾检测方法技术_技高网

一种基于双光融合的远距离视频火灾检测方法技术

技术编号:43075315 阅读:5 留言:0更新日期:2024-10-22 14:50
一种基于双光融合的远距离视频火灾检测方法,包括以下步骤;S1、建立火灾数据集,收集火焰和烟雾的可见光图像及红外热图像;S2、标注数据集;S3、建立改进后的YOLOv5的深度学习算法框架进行可见光图像检测;S4、建立改进的SVM框架对图像进行准确分割,并配合分割区域的圆形度与填充率进行检测结果的输出,进行红外热图像检测;S5、通过可见光图像数据集对改进后的YOLOv5模型进行预训练,通过红外热图像的数据集对改进后的SVM模型进行训练;S6、建立可见光与红外检测结果决策融合的算法框架,对红外与可见光的输出结果进行不同权重的融合,最终给出是否发生火灾及火灾发生的位置信息。本发明专利技术实现对建筑工地初期火灾和远距离火灾的检测,提高了火灾预防能力。

【技术实现步骤摘要】

本专利技术涉及火灾检测,具体涉及一种基于双光融合的远距离视频火灾检测方法


技术介绍

1、建筑施工现场存在动火作业、可燃材料存储、交叉施工面多等安全隐患,极易产生火灾类安全事故,严重威胁着施工人员的生命财产安全。目前,建筑工地上应对这类问题的重要措施之一就是提高现有的火灾检测水平,使火灾在发生初期就能被准确识别并报警。

2、目前的火灾检测技术主要通过对视频图像进行分析,进而确定是否发生火灾。传统的视频火灾检测技术主要是将人为设置的火焰和烟雾特征与其他干扰特征区分开来,但是这样提取特征表征的能力有限,准确率和误报率也达不到要求。随着深度学习技术的发展,其在物体检测和视频跟踪等计算机视觉任务中表现出了卓越的性能。与人工特征提取器相比,深度神经网络能提取更多抽象和本质的图像特征,准确率和召回率相较于上述方法有明显提升。目前大多数火灾检测技术仅对于可见光图像或红外图像进行处理。但是,建筑工地背景复杂,光线和遮挡的影响会导致在可见光图像中火焰及烟雾特征不明显,造成检测准确率的下降,其次,红外光的波长较长,所需能量较大,相同的探测器尺寸下所包含的像素数量就会减少,导致其相较于同尺寸可见光图像具有较低的分辨率,图像中所包含的特征也就随之较少;最后,该场景空间开阔,一旦相较于探测器较远的地方发生火灾,以目前的技术也很难对其进行识别与预警。

3、综上所述,现有火灾检测方法的主要缺点如下:1)仅采用单一探测器进行火灾的检测,导致复杂背景下的火灾检测精度不高,存在漏报、误报等问题;2)对于空间开阔的室外场景,小目标检测性能并不理想,远距离火焰识别较困难。


技术实现思路

1、为了克服以上现有技术存在的问题,本专利技术的目的在于提供一种基于双光融合的远距离视频火灾检测方法,该检测方法实现对建筑工地初期火灾和远距离火灾的检测,提高了火灾预防能力。

2、为了实现上述目的,本专利技术,采用的技术方案是:

3、一种基于双光融合的远距离视频火灾检测方法,包括以下步骤;

4、s1、建立火灾数据集,收集火焰和烟雾的可见光图像及红外热图像,包括不同天气、光线和距离;

5、s2、标注数据集;

6、s3、建立改进后的yolov5的深度学习算法框架进行可见光图像检测;

7、s4、建立改进的svm框架对图像进行准确分割,并配合分割区域的圆形度与填充率进行检测结果的输出,进行红外热图像检测;

8、s5、训练模型,通过可见光图像数据集对改进后的yolov5模型进行预训练,通过红外热图像的数据集对改进后的svm模型进行训练;

9、s6、建立可见光与红外热图像检测结果决策融合策略,根据白天和夜晚的不同光线,对红外热图像与可见光图像的输出结果进行不同权重的融合,最终给出是否发生火灾及火灾发生的位置信息。

10、所述步骤s2中,将标注后的数据集随机划分为训练集、验证集和测试集;

11、像素区域不清楚的正样本不被标记,其中,训练集用于拟合模型,通过设置分类器的参数,训练分类模型;后续结合验证集作用时,根据修改参数值来拟合出多个分类器;验证集数据用于各个模型对同一数据集的准确率评估,进而选出效果最佳的模型所对应的参数;通过训练集和验证集得出最优模型后,使用测试集进行模型预测,用来衡量该最优模型的性能和泛化能力。

12、所述步骤s3中,采用改进后的yolov5算法在可见光图像中进行目标检测;

13、所述改进后的yolov5算法的网络结构主要包括input、backbone、neck和prediction四个部分,分别负责输入图片预处理、特征提取、特征融合、输出检测信息,且每个模块的输入都来源于前一个模块的输出。

14、在backbone和neck中采用ghost module,同时将ghost module嵌入到c3模块中,形成c3ghost模块,此外,c3ghost模块中包括ghostbottleneck;

15、其中ghostbottleneck由两个堆叠的ghost module组成,第一个ghost module作为扩展层增加通道数量,第二个ghost module减少了通道的数量以匹配第一步的输入,使两者可以进行元素加法。

16、每个ghost module分为三步:常规卷积、ghost生成和特征图拼接,先使用普通卷积、批量归一化和一个激活函数,将输入图像进行通道压缩,生成一些固有的特征映射,然后将特征图应用一系列简单的线性操作获得更多的特征图,增加特征;其中简单的线性操作由深度可分离卷积和批量归一化以及一个激活函数组成,然后将获得的更多特征图通过concat,与第一步中生成的特征图进行组合,最终获得的特征图即为该模块的输出。

17、改进后的yolov5算法中,采用640×640×3的彩色图片作为模型输入;之后将图像输入backbone部分进行特征提取,backbone通过一系列的卷积层和池化层对输入图像进行处理,逐渐降低特征图的尺寸,同时增加通道数,保留和提取图像中重要的特征,采用focus模块、ghost module、c3ghost模块、spp和ca模块堆叠而成,其中第2、4、6层的c3ghost的输出特征图会传入neck部分,与其它特征图进行多尺度融合;在neck部分中,实现浅层图形特征和深层语义特征的融合,采用bifpn实现特征金字塔相邻级别之间的双向连接,使信息能够在网络中同时进行自底向上和自顶向下的流动。

18、coordattention(ca)模块被嵌入到backbone中的四个c3ghost之后,通过突出火焰检测的关键信息来增强网络的特征提取能力,ca模块被分为两部分,坐标信息嵌入和坐标注意力生成,可表示为:

19、

20、其中xc(i,j)表示网络感兴趣目标的定位输入,和为不同注意力权重输出;使用efficientdet-bifpn实现自上而下和自下而上的深度特征双向融合。

21、所述步骤s4具体包括:

22、s41、对红外热图像预处理;

23、s42、图像分割,采用svm算法对预处理后的红外热图像中进行目标分割,并对其针对火灾的先验知识进行改进;

24、s43、火灾目标特征判别,通过对分割出的区域进行圆形度和填充率的判别,进而对疑似区域进行进一步分析,来排除干扰目标,判断火灾是否真实发生。

25、所述s41具体为:首先以当前像素点及其邻域作为一个窗口,窗口尺寸一般为奇数,然后在窗口内依次取中心点(i,j)所在的行、列及两个对角线方向像素点灰度的中值,之后取这四个中值中的最大值来代替原中心点的灰度值,即得到最终的滤波结果。

26、所述s42中,svm算法的l1-svm定义如下:

27、

28、s.t.wtxi+b≥1-ηi,xi∈w+

29、wtxj+b≤-1+δj,xj∈w-

30、||η本文档来自技高网...

【技术保护点】

1.一种基于双光融合的远距离视频火灾检测方法,其特征在于,包括以下步骤;

2.根据权利要求1所述的一种基于双光融合的远距离视频火灾检测方法,其特征在于,所述步骤S2中,将标注后的数据集随机划分为训练集、验证集和测试集;

3.根据权利要求1所述的一种基于双光融合的远距离视频火灾检测方法,其特征在于,所述步骤S3中,采用改进后的YOLOv5算法在可见光图像中进行目标检测;

4.根据权利要求3所述的一种基于双光融合的远距离视频火灾检测方法,其特征在于,改进后的YOLOv5算法中,采用可见光图像作为模型输入;之后将图像输入Backbone部分进行特征提取,Backbone通过卷积层和池化层对输入图像进行处理,逐渐降低特征图的尺寸,同时增加通道数,保留和提取图像中重要的特征,采用Focus模块、Ghost module、C3Ghost模块、SPP和CA模块堆叠而成,其中第2、4、6层的C3Ghost的输出特征图会传入Neck部分,与其它特征图进行多尺度融合;在Neck部分中,实现浅层图形特征和深层语义特征的融合,采用BiFPN实现特征金字塔相邻级别之间的双向连接,使信息能够在网络中同时进行自底向上和自顶向下的流动;

5.根据权利要求1所述的一种基于双光融合的远距离视频火灾检测方法,其特征在于,所述步骤S4具体包括:

6.根据权利要求5所述的一种基于双光融合的远距离视频火灾检测方法,其特征在于,所述S41具体为:首先以当前像素点及其邻域作为一个窗口,窗口尺寸一般为奇数,然后在窗口内依次取中心点(i,j)所在的行、列及两个对角线方向像素点灰度的中值,之后取这四个中值中的最大值来代替原中心点的灰度值,即得到最终的滤波结果;

7.根据权利要求6所述的一种基于双光融合的远距离视频火灾检测方法,其特征在于,所述步骤S5中,对步骤S3和S4中提到的改进后的YOLOv5和SVM分别进行训练;

8.根据权利要求1所述的一种基于双光融合的远距离视频火灾检测方法,其特征在于,所述步骤S6中,对可见光与红外结果决策融合的过程包括:

9.根据权利要求8所述的一种基于双光融合的远距离视频火灾检测方法,其特征在于,根据白天和夜晚的不同光线,对可见光与红外进行不同权重的融合,夜晚红外图像较敏感,适当提高红外的融合权重,检测框融合公式如下:

...

【技术特征摘要】

1.一种基于双光融合的远距离视频火灾检测方法,其特征在于,包括以下步骤;

2.根据权利要求1所述的一种基于双光融合的远距离视频火灾检测方法,其特征在于,所述步骤s2中,将标注后的数据集随机划分为训练集、验证集和测试集;

3.根据权利要求1所述的一种基于双光融合的远距离视频火灾检测方法,其特征在于,所述步骤s3中,采用改进后的yolov5算法在可见光图像中进行目标检测;

4.根据权利要求3所述的一种基于双光融合的远距离视频火灾检测方法,其特征在于,改进后的yolov5算法中,采用可见光图像作为模型输入;之后将图像输入backbone部分进行特征提取,backbone通过卷积层和池化层对输入图像进行处理,逐渐降低特征图的尺寸,同时增加通道数,保留和提取图像中重要的特征,采用focus模块、ghost module、c3ghost模块、spp和ca模块堆叠而成,其中第2、4、6层的c3ghost的输出特征图会传入neck部分,与其它特征图进行多尺度融合;在neck部分中,实现浅层图形特征和深层语义特征的融合,采用bifpn实现特征金字塔相邻级别之间的双向连接,使信息能够...

【专利技术属性】
技术研发人员:马宗方殷佳佩张国飞宋琳
申请(专利权)人:西安建筑科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1