本公开提供了一种基于YOLOv5的安全帽检测方法及系统,涉及计算机视觉图像检测技术领域,方法包括获取施工现场待检测的安全帽目标图像,并对目标图像进行预处理;对目标图像进行特征提取,提取目标图像的轮廓、颜色细节特征,获取多尺度特征图;其中,在进行多尺度特征图提取时,引入多光谱通道注意力机制,将多光谱通道注意力机制分别集成到改进的YOLOv5模型的主干网络、网络层以及预测输出层中,融合在各个结构不同的位置上,在重要通道和空间位置进行特征增加,来获取不同比例尺的多尺度特征图;输出安全帽检测分类结果。本公开提高了对小目标的特征提取能力。对小目标的特征提取能力。对小目标的特征提取能力。
【技术实现步骤摘要】
一种基于YOLOv5的安全帽检测方法及系统
[0001]本公开涉及计算机视觉图像检测
,具体涉及一种基于YOLOv5的安全帽检测方法及系统。
技术介绍
[0002]本部分的陈述仅仅是提供了与本公开相关的
技术介绍
信息,不必然构成在先技术。
[0003]目标检测广泛应用于监控、自动驾驶和交通监控等场景。目标检测包括两个任务:第一,提取目标特征向量并定位其位置;第二,使用分类算法对定位区域中的对象进行分类;传统的目标检测方法主要依靠一些特征提取算法来提取特征,如目标的颜色和纹理,然后,使用预训练的分类器进行分类。候选区域通常通过使用滑动窗口来获得,代表性的算法包括HOG等,然而,这些方法相对复杂,难以实际应用。在2012年,AlexNet利用卷积神经网络(CNN)以显著的优势赢得了ImageNet图像识别比赛的冠军。与传统方法相比,AlexNet不需要人工选择特征,大大提高了检测效率;自此,目标检测进入深度学习时代。基于深度学习的目标检测方法可以分为两类:两阶段检测和一阶段检测。以R
‑
CNN系列为代表的两阶段目标检测方法可以达到较高的检测精度,但计算速度较慢。Girshick在2014年提出了R
‑
CNN,Fast R
‑
CNN和Faster R
‑
CNN是在接下来的几年中提出的,这些方法逐步提高了检测性能。一阶段目标检测的代表性算法是YOLO系列和SSD。它们的优点是计算速度快,但是检测精度并不是那么好。Redmon在2015年提出了YOLO,它通过使用CNN将目标检测问题视为回归问题,同时具有分类功能,避免了R
‑
CNN系列繁琐的两步检测过程,实现了更快的端到端检测。然而,YOLO的定位精度是不够的,特别是对于小物体。2016年,刘提出了SSD算法,通过引入多尺度检测来提高小目标的检测性能。2017年,Redmon提出了YOLOv2算法,Anchor的引入提高了目标定位的准确性和召回率。Redmon在2018年提出了YOLOv3算法,利用特征金字塔网络实现多尺度检测。Bochkovskiy提出了YOLOv4算法来提高检测精度和速度。Ultralitics在2020年提出了YOLOv5,它包括四个部分:Input、Backbone、Neck和Prediction;Backbone用于特征提取,Neck进行特征融合,Prediction返回预测结果。
[0004]在建筑工地,快速检测工人是否佩戴安全帽对于保障工人的生命安全具有重要意义。随着深度学习的广泛应用,许多新的检测算法被提出,以提高安全帽检测的准确性和效率。2014年,刘通过结合肤色检测和支持向量机成功地实现了安全帽检测。Wu基于Faster R
‑
CNN,通过结合多级和多尺度特征进行多尺度检测,进一步提高了检测的准确性。李通过将颜色特征结合到VIBE(视觉背景提取器)算法中实现了对安全帽的检测。方在YOLOv2中添加了Focus增强了语义信息和多层特征的融合,提高了远距离小目标检测的准确性。王在YOLOv4的基础上使用了k
‑
means聚类算法和金字塔分层注意(PSA)模型,mAP相对于YOLOv4提高了2.15%。目前,YOLOv5因其精度高、速度快、易扩展而成为目标检测中最常用的模型之一。
[0005]但是,在复杂的施工现场,检测工人是否戴安全帽经常受到遮挡、光照变化等因素
的影响,再加之目标比较小,很容易造成漏检和误检,难以实现针对小目标、复杂场景下的精准检测。
技术实现思路
[0006]本公开为了解决上述问题,提出了一种基于YOLOv5的安全帽检测方法及系统,提出了一种改进的YOLOv5模型,引入多光谱通道注意(MSCA)机制来增强小目标的特征学习,以解决全局平均池(GAP)带来的信息丢失问题,并显著提高复杂场景下安全帽的检测性能。
[0007]根据一些实施例,本公开采用如下技术方案:
[0008]一种基于YOLOv5的安全帽检测方法,包括:
[0009]获取施工现场待检测的安全帽目标图像,并对目标图像进行预处理;
[0010]对目标图像进行特征提取,提取目标图像的轮廓、颜色细节特征,获取多尺度特征图;
[0011]其中,在进行多尺度特征图提取时,引入多光谱通道注意力机制,将多光谱通道注意力机制集成到改进的YOLOv5模型的主干网络中,融合在对应的位置上,在通道和空间位置进行特征增加,来获取不同比例尺的多尺度特征图;
[0012]将获取的多尺度特征图进行融合,利用融合后的特征图进行目标检测,输出安全帽检测分类结果。
[0013]根据一些实施例,本公开采用如下技术方案:
[0014]一种基于YOLOv5的安全帽检测系统,包括:
[0015]图像获取模块,用于获取施工现场待检测的安全帽目标图像,并对目标图像进行预处理;
[0016]特征提取模块,用于对目标图像进行特征提取,提取目标图像的轮廓、颜色细节特征,获取多尺度特征图;
[0017]其中,在进行多尺度特征图提取时,引入多光谱通道注意力机制,将多光谱通道注意力机制集成到改进的YOLOv5模型的主干网络中,融合在对应的位置上,在通道和空间位置进行特征增加,来获取不同比例尺的多尺度特征图;
[0018]检测模块,用于将获取的多尺度特征图进行融合,利用融合后的特征图进行目标检测,输出安全帽检测分类结果
[0019]根据一些实施例,本公开采用如下技术方案:
[0020]一种计算机可存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行所述的一种基于YOLOv5的安全帽检测方法。
[0021]根据一些实施例,本公开采用如下技术方案:
[0022]一种终端设备,包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行所述的一种基于YOLOv5的安全帽检测方法。
[0023]与现有技术相比,本公开的有益效果为:
[0024]本公开提供了一种改进的YOLOv5模型。通过添加152
×
152检测尺度来修改网络结构,这提高其对小目标的特征提取能力,并且使得模型能够检测更小的目标;其次,引入多光谱通道注意(MSCA)机制来增强小目标的特征学习,以解决全局平均池(GAP)带来的信息
丢失问题;对YOLOv5采用了不同的激活函数、边界框回归损失函数和后处理方法。采用Mish函数作为激活函数,提高了模型的泛化能力,解决了Leaky RelU函数导致的梯度消失问题。采用CIoU loss作为损失函数,提高了边界框回归的精度,使预测收敛更快。DIoU
‑
NMS代替NMS作为后处理方法,以增强对遮挡小物体的预测框的滤波能力。在一个有7000幅图像的数据集上测试了本公开的方法,获得了95.1%的mAP,比YOLOv5模型高2.9%,本文档来自技高网...
【技术保护点】
【技术特征摘要】
1.一种基于YOLOv5的安全帽检测方法,其特征在于,包括:获取施工现场待检测的安全帽目标图像,并对目标图像进行预处理;对目标图像进行特征提取,提取目标图像的轮廓、颜色细节特征,获取多尺度特征图;其中,在进行多尺度特征图提取时,引入多光谱通道注意力机制,将多光谱通道注意力机制分别集成到改进的YOLOv5模型的主干网络上,在重要通道和空间位置进行特征增加,来获取不同比例尺的多尺度特征图;将获取的多尺度特征图进行融合,利用融合后的特征图进行目标检测,输出安全帽检测分类结果。2.如权利要求1所述的一种基于YOLOv5的安全帽检测方法,其特征在于,所述预处理的方式包括:镶嵌数据扩充和自适应图像缩放。3.如权利要求1所述的一种基于YOLOv5的安全帽检测方法,其特征在于,所述改进的YOLOv5模型包括输入层、主干网络层、融合层以及预测输出层,主干网络层包括Focus、CBM、跨阶段局部、空间金字塔池和多光谱通道注意力机制。4.如权利要求3所述的一种基于YOLOv5的安全帽检测方法,其特征在于,所述Focus执行切片操作并增加网络深度;CBM包括平均卷积、批量归一化和Mish函数;SPP负责融合不同比例尺的特征图,Neck负责特征融合,融合不同大小的特征图,Prediction是检测过程的最后阶段,输出检测结果。5.如权利要求1所述的一种基于YOLOv5的安全帽检测方法,其特征在于,所述多光谱通道注意力机制的过程包括:将输入X沿通道维度分为多等份,对于每一份,使用2DDCT频率分量进行变换并生成一个注意向量,将注意向量作为通道注意的预处理结果,获取每一部分的压缩向量,将压缩向量通过串联组合形成多光谱通道注意力向量,然后利用激活函数以及映射函数计算多光谱通道注意力向量。6.如权利要求5所述的一种基于YOLOv5的安全帽检...
【专利技术属性】
技术研发人员:李爱民,姚得旭,刘德琦,程梦凡,刘笑含,
申请(专利权)人:齐鲁工业大学山东省科学院,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。