本发明专利技术公开了一种于改进YOLOv3的遥感影像小目标检测方法,本发明专利技术基于原始YOLOv3算法进行了改进,首先引入MobileNet
【技术实现步骤摘要】
一种基于改进YOLOv3的遥感影像小目标检测方法
[0001]本专利技术涉及遥感影像小目标检测
,具体涉及一种基于改进YOLOv3的遥感影像小目标检测方法。
技术介绍
[0002]石油是世界上最重要的化石能源之一,对于现代社会的发展和工业生产有着至关重要的作用,它为人类提供了动力、燃料、化工原料及其他诸多商品。抽油机是石油开采过程中非常重要的设备,其定位与检测使人们能够全面了解抽油机在空间上的部署情况并实现对油气资源的合理开采与能源利用的优化,帮助人们分析抽油机附近水源、土壤质量等,为环境保护方面工作提供相关依据,石油开采区影像中抽油机检测由于影像分辨率低,检测速度慢,成为一个待解决的问题。
[0003] 2014年以前,目标检测处于传统算法阶段检测器,完全依靠人工设计特征,通过使用大量的技巧让检测器获取更强的表达能力,同时尽量降低对计算资源的消耗,如Viola Jones检测器、梯度方向直方图(histogram of oriented gradients,HOG)和基于组件的检测算法可变形组件模型(deformable part model,DPM)
[0004] 2014年,R.Girshick等提出了区域卷积神经网络(region
‑
convolution neural network,R
‑
CNN)算法,将卷积神经网络(region
‑
convolution neural network,CNN)特征应用到了目标检测场景中,是检测算法的一个重大的突破。由于CNN提取的深度特征与传统手工特征相比具有更为强大的表征能力,基于深度学习的目标检测算法逐渐成为领域主流。深度学习方法从原始图像中自动提取物体特征,并利用回归或分类等方法完成物体检测和定位,具有自适应学习的能力、处理大规模数据的能力的优势。在自动驾驶,安防监控,缺陷检测,农业生产等领域都有广泛的应用。
[0005]基于先验框的主流目标检测算法主要分为两类。第一类是Two
‑
Stage目标检测算法,通常分为两个阶段:筛选候选框和修正目标分类、位置。在第一个阶段中,Two
‑
Stage算法通常识别可能包含目标物体的区域,并计算每个候选框与各个物体类别之间的相似度得分,最终生成一组候选框;在第二个阶段中,算法将所选定的候选框输入神经网络模型,模型会将坐标对齐好并相应截取好的候选框送进行特征提取和分类、回归。Two
‑
Stage算法可以更加准确地检测目标,在复杂的场景下相对可靠。其中代表性算法是R
‑
CNN、SPP
‑
Net、Faster RCNN等,第二类是One
‑
Stage目标检测算法,其主要思想是将原图划分成多个网格,并在每个网格内直接进行物体类别判定和位置预测。如YOLO,SSD,Retina
‑
Net、FCOS等。One
‑
Stage算法相较于Two
‑
Stage算法在速度和简洁性上有相应优势,可以达到实时的要求,较多的应用在实际应用中。
[0006]尽管目标检测算法在各领域具有不错的成果,小目标检测仍然是计算机视觉中的一个难点和热点,遥感影像的小目标包含通常被复杂的周围场景淹没,而且小目标会密集分布在同一区域中,容易造成漏检、误检等情况。人们通过特征融合方法和增加注意力的方式,提高小目标的检测效果。前一种方法虽然提高了底层特征的利用率,但并没有从根本上
解决小目标特征丢失的问题。后一种方法提升了小目标检测精度,但检测速度和模型大小不能较好的满足实际需求。
[0007]因此,提供一种通过修改引入轻量级骨干网络,改进特征融合模块,升级损失函数,以改善YOLOv3遥感小目标抽油机检测效率低、精度差问题的基于改进YOLOv3的遥感影像小目标检测方法,已是一个值得研究的问题。
技术实现思路
[0008]本专利技术的目的是提供一种通过修改引入轻量级骨干网络,改进特征融合模块,升级损失函数,以改善YOLOv3遥感小目标抽油机检测效率低、精度差问题的基于改进YOLOv3的遥感影像小目标检测方法。
[0009]本专利技术的目的是这样实现的:一种基于改进YOLOv3的遥感影像小目标检测方法,包括以下步骤:步骤S1获取数据,并进行定量裁剪,将目标数据和对应的标签文件随机划分为训练集和测试集,为增强模型在复杂场景对小样本的特征表达能力,将训练数据集使用常规方法和mosaic方法进行数据增强;步骤S2、将所示步骤1中预处理后的训练集数据输入改进后的YOLOv3网络模型中进行训练,改进后的YOLOv3网络模型包括特征提取,特征融合和预测三个部分,保存最优模型;步骤S3、使用最优模型对测试集进行预测并得到所有预测框和置信度。
[0010]所述步骤S2中,训练集数据输入改进后的YOLOv3网络模型训练的具体过程如下:步骤S2.1、轻量化特征提取网络:将原YOLOv3的Darknet53骨干网络替换为轻量化网络MobileNet
‑
v3,在不降低模型预测精度的情况下,最大化程度上降低网络的参数量和计算量,以便降低模型运行所需的内存空间和推理所需的时间。并将MobileNet
‑
v3最后的几个卷积层和池化层进行剪枝,以便适配YOLOv3后期的特征融合结构;剪枝结果如下表所示
其中bneck代表倒残差网络结构,exp size代表bneck中升维维度,SE代表bneck中是否使用注意力机制,NL代表bneck中使用激活函数的种类,HS表示h
‑
swish,激活函数RE为线性修正单元ReLU。
[0011]深度可分离卷积操作将卷积提取特征过程分为深度卷积和逐点卷积两部分;在深度卷积部分输入三通道特征图,经过3
×
3卷积核,得到三通道的深度卷积结果,再将深度卷积结果作为输入,用1
×
1卷积核进行进行逐点卷积,得到最终卷积结果;倒残差结构先使用1
×
1卷积实现升维,再通过3
×
3的DW卷积(逐通道卷积)提取特征,最后使用1
×
1卷积实现降维;HS表示为h
‑
swish,加快了激活函数求导和网络反向传播的速度,
[0012]步骤S2.2、特征融合模块:引入空间金字塔池化模块SPP和自底向上的路径聚合特征融合方法;解决了原YOLOv3模型中的FCN特征融合模块使低级语义信息在传递过程中损毁严重的问题,防止从目标漏、错检的现象,提高预测精度;空间金字塔池化模块SPP:于特征提取网络后的第三个卷积层后引入空间金字塔池化模块SPP,通过最高语义层级的多尺度池化操作增强网络的局部特征和全局特征提取能力,为后续的目标预测提供更深层次的特征信息,提高模型的鲁棒性,空间金字塔池化模块SPP融合过程为,将输入特征图进行4个分支操作,首先用3种大小的池化核进行池化操作,生成3个大本文档来自技高网...
【技术保护点】
【技术特征摘要】
1.一种基于改进YOLOv3的遥感影像小目标检测方法,其特征在于:包括以下步骤:步骤S1获取数据,并进行定量裁剪,将目标数据和对应的标签文件随机划分为训练集和测试集,为增强模型在复杂场景对小样本的特征表达能力,将训练数据集使用常规方法和mosaic方法进行数据增强;步骤S2、将所示步骤1中预处理后的训练集数据输入改进后的YOLOv3网络模型中进行训练,改进后的YOLOv3网络模型包括特征提取、特征融合和预测三个部分,保存最优模型;步骤S3、使用最优模型对测试集进行预测并得到所有预测框和置信度。2.根据权利要求1所述的基于改进YOLOv3的遥感影像小目标检测方法,其特征在于:所述步骤S2中,训练集数据输入改进后的YOLOv3网络模型训练的具体过程如下:步骤S2.1、轻量化特征提取网络:将原YOLOv3的Darknet53骨干网络替换为轻量化网络MobileNet
‑
v3,在不降低模型预测精度的情况下,最大化程度上降低网络的参数量和计算量,以便降低模型运行所需的内存空间和推理所需的时间;并将MobileNet
‑
v3最后的几个卷积层和池化层进行剪枝,以便适配YOLOv3后期的特征融合结构;步骤S2.2、特征融合模块:引入空间金字塔池化模块SPP和自底向上的路径聚合特征融合方法;解决了原YOLOv3模型中的FCN特征融合模块使低级语义信息在传递过程中损毁严重的问题,防止从目标漏、错检的现象,提高预测精度;空间金字塔池化模块SPP:于特征提取网络后的第三个卷积层后引入空间金字塔池化模块SPP,通过最高语义层级的多尺度池化操作增强网络的局部特征和全局特征提取能力,为后续的目标预测提供更深层次的特征信息,提高模型的鲁棒性,,空间金字塔池化模块SPP融合过程为,将输入特征图进行4个分支操作,首先用3种大小的池化核进行池化操作,生成3个大小相同的局部特征图,然后再将包括输入特征图在内的4个特征图进行张量拼接,进而得到4倍初始长度的特征图;自底向上的路径聚合特征融合:在FPN结构基础之上引入了自底向上的路径聚合结构,降低初级特征在传...
【专利技术属性】
技术研发人员:赫晓慧,李盼乐,程淅杰,乔梦佳,常紫倩,高亚军,田智慧,刘飞,
申请(专利权)人:郑州大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。