System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术涉及图像识别,更具体的说是涉及一种基于改进型yolov7的防护用品穿戴检测方法。
技术介绍
1、目前,实验室是从事实验教学、科学研究和社会服务的重要场所。实验室安全管理是保障教学、科研工作平稳运行的重要组成部分。但是,因实验人员特别是学生对实验室规章制度和实验操作规程的不熟悉、不重视,导致近年来安全事故频出。其中,不按规定穿戴防护用品是安全事故发生的主要原因之一。通过人工监督防护用品的穿戴情况耗时费力,且在人数较多时容易出错。防护用品穿戴情况的自动检测可为实验室的智能化管理提供基础信息,对加快实验室信息化、智能化建设具有重要意义。
2、近来,计算机视觉技术开始被用于进行防护用品穿戴检测,如专利cn116453100a公开了一种防护用具穿脱规范性的检测方法。该方法利用alphapose算法对图像中的人体姿态进行估计,获取人体关节点区域,再通过yolov5模型和resnet模型实现安全设备穿戴检测;如专利cn115761626a使用yolov5模型获取初步的检测结果,再根据不同的检测场景,识别现场工作人员的安全设备穿戴情况。上述专利虽然推动了自动检测防护用品穿戴的发展,但其均需执行多次检测,速度较慢。
3、为了提高检测速度,专利cn116543419a公开了一种基于嵌入式平台的酒店卫勤人员穿戴检测方法。该方法实时获取待检测区域的图像数据,对图像数据进行预处理后发送给识别模型,由模型识别卫勤工作人员防护用品穿戴是否正确;又如专利cn116630737a公开了一种基于yolov5的市政工程施工人员安全特
4、因此,如何提供一种防护用品穿戴检测方法,其可以快速、准确、精细化预测人体的位置和防护用品穿戴类别是本领域技术人员亟需解决的问题。
技术实现思路
1、有鉴于此,本专利技术的目的是提供一种基于改进型yolov7的防护用品穿戴检测方法,其可以快速、准确、精细化预测人体的位置和防护用品穿戴类别。
2、为了实现上述目的,本专利技术采用如下技术方案:
3、一种基于改进型yolov7的防护用品穿戴检测方法,包括以下步骤:
4、s1:构建改进型yolov7模型:
5、去除yolov7的小尺度输出层和中尺度输出层,保留大尺度输出层;
6、将保留的大尺度输出层解耦为两个并行分支;所述两个并行分支包括分类分支和定位分支;
7、将yolov7中的cbs模块均替换为cbs+模块,所述cbs+模块将所述cbs模块中的传统卷积层替换为部分卷积层,并在部分卷积层和批量归一化层之间添加了逐点卷积层;
8、在原始yolov7损失函数上添加防护用品穿戴损失函数构建改进型yolov7的损失函数;
9、s2:利用训练集对所述改进型yolov7模型进行训练,获得训练好的改进型yolov7模型;
10、s3:将待检测图像输入到训练好的改进型yolov7模型中,获得待检测图像中防护用品的穿戴情况。
11、优选的,所述训练集中的各个图像标注有人体边界框、头部关键点、手部关键点、防护服穿戴类别、防护帽穿戴类别以及防护手套穿戴类别。
12、优选的,所述定位分支用于输出预测人体边界框、预测头部关键点以及预测手部关键点;
13、所述分类分支用于输出预测防护服穿戴类别、预测防护帽穿戴类别以及预测防护手套穿戴类别。
14、优选的,s1进一步包括:在原始yolov7损失函数的基础上添加防护服分类损失函数、防护帽分类损失函数以及防护手套分类损失函数,获得所述改进型yolov7的损失函数。
15、优选的,所述改进型yolov7的损失函数计算公式为:
16、ltotal=lyolov7+lppe; (1)
17、lyolov7=ciou loss(bboxgt,bboxprd)
18、+bce with logits loss(bclsgt,bclsprd)
19、+bce with logits loss(objgt,objprd)
20、+oks loss(kposgt,kposprd)
21、+bce with logits loss(kclsgt,kclsprd); (2)
22、
23、其中,ltotal表示改进型yolov7的损失函数,yyolov7和lppe分别表示原始yolov7损失函数和防护用品穿戴损失函数,ciouloss表示complete-iou损失函数,bce with logitsloss表示二元交叉熵损失函数,oks loss表示目标关键点相似度损失函数,bboxgt表示真实人体边界框,bboxprd表示预测人体边界框,bclsgt表示真实人体边界框类别,bclsprd表示预测人体边界框类别,objgt表示真实objectness分数,objprd表示预测objectness分数,kposgt表示真实关键点坐标,kposprd表示预测关键点坐标,kclsgt表示真实关键点类别,kclsprd表示预测关键点类别,和分别表示真实人体边界框防护服穿戴类别、预测人体边界框防护服穿戴类别、真实关键点防护帽穿戴类别、预测关键点防护帽穿戴类别、真实关键点防护手套穿戴类别和预测关键点防护手套穿戴类别。
24、优选的,s3进一步包括:
25、筛选出置信度高于第一置信度阈值的预测人体边界框,获得第一预测人体边界框集合;
26、对所述第一预测人体边界框集合使用非极大值抑制方法剔除iou值大于设定阈值的预测人体边界框,获得第二预测人体边界框集合。
27、基于第二置信度阈值获取第二预测人体边界框集合中各个预测人体边界框头部关键点的状态、手部关键点的状态、手部关键点穿戴防护手套的类别、头部关键点穿戴防护帽的类别以及人体边界框内穿戴防护服的类别。
28、优选的,所述第一置信度阈值为0.7;所述设定阈值为0.5;所述第二置信度阈值为0.7。
29、优选的,采用随机梯度下降法和反向传播算法微调所述改进型yolov7模型的权重。
30、优选的,对训练集内标注的所有人体边界框进行k-means聚类得到的9个簇,将所述9个簇作为所述大尺度输出层的9个锚点框。
31、优选的,将保留的大尺度输出层解耦为两个并行分支进一步包括:
32、设置定位分支输出锚点框在水平方向和垂直方向的偏移量;
33、设置定位分支输出锚点框的宽度缩本文档来自技高网...
【技术保护点】
1.一种基于改进型YOLOv7的防护用品穿戴检测方法,其特征在于,包括以下步骤:
2.根据权利要求1所述的基于改进型YOLOv7的防护用品穿戴检测方法,其特征在于,所述训练集中的各个图像标注有人体边界框、头部关键点、手部关键点、防护服穿戴类别、防护帽穿戴类别以及防护手套穿戴类别。
3.根据权利要求2所述的基于改进型YOLOv7的防护用品穿戴检测方法,其特征在于:
4.根据权利要求2或3所述的基于改进型YOLOv7的防护用品穿戴检测方法,其特征在于,S1进一步包括:在原始YOLOv7损失函数的基础上添加防护服分类损失函数、防护帽分类损失函数以及防护手套分类损失函数,获得所述改进型YOLOv7的损失函数。
5.根据权利要求4所述的基于改进型YOLOv7的防护用品穿戴检测方法,其特征在于,所述改进型YOLOv7的损失函数计算公式为:
6.根据权利要求2、3、5任意一项所述的基于改进型YOLOv7的防护用品穿戴检测方法,其特征在于,S3进一步包括:
7.根据权利要求6所述的基于改进型YOLOv7的防护用品穿戴检测方法
8.根据权利要求1所述的基于改进型YOLOv7的防护用品穿戴检测方法,其特征在于,采用随机梯度下降法和反向传播算法微调所述改进型YOLOv7模型的权重。
9.根据权利要求2所述的基于改进型YOLOv7的防护用品穿戴检测方法,其特征在于,对训练集内标注的所有人体边界框进行K-means聚类得到的9个簇,将所述9个簇作为所述大尺度输出层的9个锚点框。
10.根据权利要求9所述的基于改进型YOLOv7的防护用品穿戴检测方法,其特征在于,将保留的大尺度输出层解耦为两个并行分支进一步包括:
...【技术特征摘要】
1.一种基于改进型yolov7的防护用品穿戴检测方法,其特征在于,包括以下步骤:
2.根据权利要求1所述的基于改进型yolov7的防护用品穿戴检测方法,其特征在于,所述训练集中的各个图像标注有人体边界框、头部关键点、手部关键点、防护服穿戴类别、防护帽穿戴类别以及防护手套穿戴类别。
3.根据权利要求2所述的基于改进型yolov7的防护用品穿戴检测方法,其特征在于:
4.根据权利要求2或3所述的基于改进型yolov7的防护用品穿戴检测方法,其特征在于,s1进一步包括:在原始yolov7损失函数的基础上添加防护服分类损失函数、防护帽分类损失函数以及防护手套分类损失函数,获得所述改进型yolov7的损失函数。
5.根据权利要求4所述的基于改进型yolov7的防护用品穿戴检测方法,其特征在于,所述改进型yolov7的损失函数计算公式为:
6.根...
【专利技术属性】
技术研发人员:杨晓帆,韦少钗,
申请(专利权)人:广东潮州卫生健康职业学院,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。