System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于改进的YOLOv5及注意机制的安全帽检测方法技术_技高网

一种基于改进的YOLOv5及注意机制的安全帽检测方法技术

技术编号:41208757 阅读:8 留言:0更新日期:2024-05-09 23:30
本发明专利技术提供了一种基于改进的YOLOv5及注意机制的安全帽检测方法,属于图像处理技术领域。所述方法具体包括以下步骤:由实际工地场景构建施工现场场景下的安全帽数据集;改进基于YOLOv5安全帽检测模型,在Neck网络中使用BiFPN结构代替FPN结构,以提高网络对不同尺度目标的检测能力;添加通道先验卷积注意力CPCA模块,优先分配注意力给小目标同时提升对安全帽佩戴检测精度;将YOLOv5的损失函数替换为一种能够在不同的检测任务中聚焦不同的回归样本的Focaler‑IoU损失函数,以提高回归结果的精确度,本发明专利技术能够准确地检测人员安全帽的佩戴情况,提升了对小目标的检测精度,减少漏检误检的情况。

【技术实现步骤摘要】

本专利技术公开一种基于改进的yolov5及注意机制的安全帽检测方法,属于一般的图像处理或产生的。


技术介绍

1、目标检测技术在工业和安全领域有着广泛的应用。随着深度学习的发展,基于神经网络的目标检测方法已经取得了很大的进步。yolov5是一种常用的目标检测模型,其速度快、精度高的特点使其在实际应用中备受青睐。然而,在安全帽检测领域,由于安全帽与人头的大小比例较小,存在检测精度不高的问题,因此需要进一步改进算法以提高检测精度。


技术实现思路

1、本专利技术提出一种基于改进的yolov5的安全帽检测方法以解决目前检测精度低、小目标误检漏检、遮挡目标检测难度较大的技术问题。通过在yolov5网络结构中加入注意力机制,对目标样本给予更多注意力,提取更多目标的特征信息,并优化回归损失函数来提升检测精度和速度,提高对安全帽检测的准确率与速度。

2、为了实现上述专利技术目的,本专利技术采用技术方案具体为:

3、一种基于改进的yolov5的安全帽检测方法,具体按照如下步骤:

4、步骤1:由实际工地场景构建施工现场场景下的安全帽数据集。

5、步骤2:改进yolov5安全帽佩戴检测模型,提高对于安全帽的检测精度与速度。

6、步骤3:将步骤1所得的安全帽数据集输入至步骤2改进的yolov5安全帽检测模型中训练,获取安全帽佩戴检测的最优预训练模型权重best.pt。

7、步骤4:输入待检测图片或视频,加载步骤3中最优模型权重best.pt,获取待检测图片或视频中人员是否佩戴安全帽。

8、优选地,步骤1所述安全帽数据集的制作过程如下:

9、步骤1.1:通过下载开放的数据集、使用网页抓取工具或从监控录像中提取关键帧来收集施工现场安全帽使用情况的数据,创建一个用于训练模型的安全帽数据集。该数据集包含7550张图片,涵盖了人员戴安全帽和未戴安全帽的情况。

10、步骤1.2:利用labelimg软件对数据集中的图片进行分类标记,定义两种标签:hat(代表安全帽)和person(代表人物)。标注时,确保安全帽的标记覆盖了人的头部和安全帽本身;标注完成后,形成xml格式的标签文件,构成voc格式(xml文件)的数据集。

11、步骤1.3:将xml格式的标签文件转换为改进yolov5安全帽佩戴检测模型所需的txt文件格式,并按照9:1的比例将数据划分为训练集和验证集以用于模型训练。

12、优选地,步骤2所述改进yolov5安全帽佩戴检测模型的具体内容如下:

13、步骤2.1:在neck网络中使用bifpn结构代替fpn结构。bifpn结构通过引入双向的特征传播机制,允许特征在不同尺度之间进行双向传播和交互,可提高网络对不同尺度目标的检测能力。

14、步骤2.2:添加通道先验卷积注意力cpca模块至yolov5网络结构第18、22、26层,cpca模块是一种高效的注意力机制方法,它支持在通道和空间维度上动态分布注意力权重,该模块可在降低参数量的同时提升对小目标安全帽佩戴检测精度;

15、步骤2.3:将yolov5安全帽佩戴检测模型损失函数ciou替换为一种能够在不同的检测任务中聚焦不同的回归样本的focaler-iou损失函数,提高回归结果的精确度。focaler-iou回归损失函数的表达式为:

16、

17、lfocaler-iou=1-ioufocaler

18、式中,ioufocaler为重构后的focaler-iou,iou为原始iou值,[d,u]∈[0,1]。通过调节d与u的值能够使得ioufocaler聚焦不同的回归样本。

19、优选地,步骤3所述改进的yolov5安全帽检测模型的训练过程如下:

20、使用步骤1中所得的安全帽数据集对改进的yolov5安全帽检测模型进行训练。设置模型训练的相关参数,指定训练过程为500轮,bacth-size为16。训练完成后,将表现最佳的模型权重保存为文件best.pt,以便用于后续的安全帽佩戴检测任务。

21、优选地,步骤4所述基于改进的yolov5的安全帽佩戴检测过程如下:

22、步骤4.1:上传需检测的图像或视频文件,并应用经过优化的安全帽佩戴检测模型,使用预训练的最佳权重文件best.pt进行分析。结果将在输出的图像上标出检测到的对象类别及其对应的精确度,其中精确度值直接关联到检测的准确性;

23、步骤4.2:通过对yolov5改进版安全帽检测模型的准确性进行验证,以提高其检测精度。评估模型性能时,将采用precision(准确率)和map(平均精度)作为关键指标。在此情境下,考虑的类别数量n为2,即人和安全帽。其中,tp表示正确将正样本识别为正样本的数量,fp表示将负样本误识别为正样本的数量,api则表示各个类别的精确度,相关计算公式如下所述:

24、

25、

26、

27、与现有技术相比,本专利技术的有益效果为:

28、1、本专利技术对yolov5网络进行了改进,在neck部分使用bifpn加权双向特征金字塔替换了fpn,引入双向的特征传播机制,允许特征在不同尺度之间进行双向传播和交互,在不同尺度之间进行自适应的信息交换和融合,从而提高网络对不同尺度目标的检测能力,提升目标检测精度和推理速度。

29、2、添加cpca注意力机制模块至yolov5网络结构可提高对安全帽的识别精度,提升识别速度,改进损失函数为focaler-iou,可减少误差,提高回归精度,改进后的yolov5模型训练获取准确率、map值分别达到了93.6%、62.7%,相比yolov5分别提升了2.8%、4.5%。

30、3、本专利技术能够准确地检测人员安全帽的佩戴情况,提升对小目标的检测精度,减少漏检误检的情况。

本文档来自技高网...

【技术保护点】

1.一种基于改进的YOLOv5及注意机制的安全帽检测方法,其特征在于:具体步骤按照以下步骤进行:

2.根据权利要求1所述的一种基于改进的YOLOv5及注意机制的安全帽检测方法,其特征在于,步骤1所述安全帽数据集的制作过程如下:

3.根据权利要求1所述的一种基于改进的YOLOv5及注意机制的安全帽检测方法,其特征在于,步骤2所述改进的YOLOv5安全帽佩戴检测模型的具体内容如下:

4.根据权利要求1所述的一种基于改进的YOLOv5及注意机制的安全帽检测方法,其特征在于,步骤3所述改进的YOLOv5安全帽检测模型的训练过程如下:

5.根据权利要求1所述的一种基于改进的YOLOv5及注意机制的安全帽检测方法,其特征在于,步骤4所述基于改进的YOLOv5安全帽佩戴检测过程如下:

【技术特征摘要】

1.一种基于改进的yolov5及注意机制的安全帽检测方法,其特征在于:具体步骤按照以下步骤进行:

2.根据权利要求1所述的一种基于改进的yolov5及注意机制的安全帽检测方法,其特征在于,步骤1所述安全帽数据集的制作过程如下:

3.根据权利要求1所述的一种基于改进的yolov5及注意机制的安全帽检测方法,其特征在于,步骤2所述改进的yol...

【专利技术属性】
技术研发人员:高阳齐玉娟舒搏锋王子杰
申请(专利权)人:中国石油大学华东
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1