【技术实现步骤摘要】
一种基于改进YOLOv3的果园环境下行人检测方法
本专利技术涉及一种基于改进YOLOv3的果园环境下行人检测方法,针对无人农机在果园环境下的行人检测,属于深度学习、行人检测
技术介绍
随着人工智能的飞速发展,农业智能装备也进入了历史性的时刻,而无人农机又是农业智能装备的重中之重。在无人农机实地操作时,障碍物检测是面临的首要问题,其中行人检测更是至关重要。目前行人检测常用的方法有基于运动特性的方法、基于形状信息的方法、基于行人模型的方法、基于立体视觉而的方法、基于神经网络的方法、基于小波和支持向量机的方法等在果园环境下行人检测面临着一系列的问题:(1)行人的多姿态问题。行人目标严重的非刚性,行人可能呈现多种不同的姿态,或静止或行走,或站立或下蹲。(2)检测场景的复杂性问题。行人与背景混合,难以分离。(3)行人检测与跟踪系统实时性的问题。在实际的应用中,往往对检测跟踪系统的反应速度有一定的要求,行人检测算法的搭建往往比较复杂,进一步提高了系统实时性的阻力。(4)遮挡问题。在实际环境中,人与人,人与物存在着大量的遮挡。本文采取计算机视觉的方法结合深度学习进行行人检测,为实现行人检测提供研究基础。
技术实现思路
为解决以上在果园环境种智能无人农机对于行人检测要求,本专利技术提供一种基于改进YOLOv3的果园环境下行人检测方法,将检测视作回归问题,直接利用卷积网络结构对整个图像进行处理,同时预测出检测的类别和位置。本专利技术基于改进YOLOv3的果园环境下行人检测方法,包括以下步骤 ...
【技术保护点】
1.一种基于改进YOLOv3的果园环境下行人检测方法,其特征在于,包括以下步骤:/n步骤1:采集果园环境中行人图像;/n采集行人在深度摄像头下拍摄的所处果园各种位置的图像,其中,所述拍摄的行人处于不同遮挡环境下的图像以及在不同天气条件下的图像和不同距离包括近距离、中距离、远距离的行人图像;/n步骤2:对步骤1中采集的图像进行预处理,并构建标准的行人检测数据集;/n步骤3:将步骤2中的行人检测数据集处理后制作训练集放入卷积特征器特征提取行人特征,通过K-means聚类算法产生anchor box数来生成预测的行人边界框扩充数据,并使用类似FPN网络进行多尺度融合预测来提升边界框和类别预测的准确性;/n步骤4:在YOLOv3网络的增加更细致的特征提取层,增加其网络在大尺度特征层的检测输出,得到改进后的网络模型YOLO-Z;/n步骤5:将训练集输入YOLO-Z网络进行多种环境训练,然后保存其权重文件;/n步骤6:引入改进Kalman滤波算法来提高模型的鲁棒性,解决漏检问题,提高检测速度。/n
【技术特征摘要】
1.一种基于改进YOLOv3的果园环境下行人检测方法,其特征在于,包括以下步骤:
步骤1:采集果园环境中行人图像;
采集行人在深度摄像头下拍摄的所处果园各种位置的图像,其中,所述拍摄的行人处于不同遮挡环境下的图像以及在不同天气条件下的图像和不同距离包括近距离、中距离、远距离的行人图像;
步骤2:对步骤1中采集的图像进行预处理,并构建标准的行人检测数据集;
步骤3:将步骤2中的行人检测数据集处理后制作训练集放入卷积特征器特征提取行人特征,通过K-means聚类算法产生anchorbox数来生成预测的行人边界框扩充数据,并使用类似FPN网络进行多尺度融合预测来提升边界框和类别预测的准确性;
步骤4:在YOLOv3网络的增加更细致的特征提取层,增加其网络在大尺度特征层的检测输出,得到改进后的网络模型YOLO-Z;
步骤5:将训练集输入YOLO-Z网络进行多种环境训练,然后保存其权重文件;
步骤6:引入改进Kalman滤波算法来提高模型的鲁棒性,解决漏检问题,提高检测速度。
2.根据权利要求1所述的一种基于改进YOLOv3的果园环境下行人检测方法,其特征在于,通过K-means聚类算法产生anchorbox数来生成预测的行人边界框扩充数据,其具体步骤为:
步骤3.1:随机选取一个坐标框的宽高作为第一个聚类中心;
步骤3.2:第n个聚类中心选取原则是与当前n-1个聚类中心相似度距离越大的框被选去的概率越大;
步骤3.3:循环步骤3.2直到所有初始聚类中心被确定;
步骤3.4:剩下其他坐标框逐一与聚类中心计算IoU(IntersectionoverUnion),得到两个框之间的相似度距离IoUloss,将坐标框划分到与其相似度距离最小聚类中心所属的类中;
步骤3.5:所有坐标框都遍历后,计算各个类内坐标框宽、高的均值,作为下轮迭代的聚类中心;
步骤3.6:重复步骤3.4、步骤3.5,直到相邻迭代的TotalIoUloss差值小于阈值,或达到迭代次数,聚类算法停止。
3.根据权利要求1所述的一种基于改进YOLOv3的果园环境下行人检测方法,其特征在于,步骤4具体如下:
步骤4.1:先将步骤2中获得的训练集图像尺寸调整为608×608,并设置IoU(IntersectionoverUnion)阈值为0.45,置信度阈值为0.5,每个格子预测B个边界框boundingbox,每个边界框包含1个置信度confidencescore值,4个坐标值以及C个类别概率,其中B是格子所在输出特征层anchorbox的数量,那么,对于尺寸的输出特征层,最终的输出维度为;
聚类使用的公式为
d(box,centroid)=1-IOU(box,centroid)
其中,box为先验框,centroid为聚类中心,IOU(box,centroid)为两个区域的交并比,当d(box,centroid)小于等于度量阈值时,确定anchorbox的宽高大小;
预测边界框的公式为
bx=σ(tx)+cx
by=σ(ty)+cy
其中,cx和cy为划分的单元格与图像左上角的横纵坐标的距离,pw、ph分别为预测前的边界框宽度和高度,tx和ty为预测中...
【专利技术属性】
技术研发人员:沈跃,张健,刘慧,张礼帅,吴边,
申请(专利权)人:江苏大学,
类型:发明
国别省市:江苏;32
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。