本发明专利技术涉及一种基于深度学习的多尺度雾天场景目标检测方法及系统,其包括:将获取的雾天场景原始图像数据输入至预先训练好的雾视模型中,获取第一检测结果;其中,雾视模型为融合了平移窗口聚焦检测层及解耦检测头的
【技术实现步骤摘要】
一种基于深度学习的多尺度雾天场景目标检测方法及系统
[0001]本专利技术属于机器人及智能硬件领域,涉及视觉和图像处理
,特别是关于一种基于深度学习的多尺度雾天场景目标检测方法及系统
。
技术介绍
[0002]在雾天气候条件下,由于恶劣的环境影响,目标检测算法面临着图像质量较差的挑战
。
这种现象导致物体的边缘变得模糊或消失,进而影响算法的准确性和鲁棒性,限制了其在各领域中的应用效果
。
因此,针对雾天气候场景设计专门的目标检测算法具有重要意义
。
[0003]为了克服在雾天环境下目标检测所面临的挑战,研究人员从多个角度提出了解决方案:第一种是采用传统的图像处理技术进行目标检测,这些算法主要基于传统的图像处理技术,如雾霾图像恢复
、
直方图均衡和滤波等,通过对图像进行增强来提高图像质量以完成目标检测任务
。
然而,这些方法的有效性受到先验知识和手动调整的限制,在实际应用中存在较大的局限
。
[0004]第二种是采用基于雾程度估计算法的目标检测,该方法首先估计图像中的雾程度并相应地去除雾霾,然后再使用去雾后的图像进行目标检测
。
虽然此方法对雾霾程度的估计比较敏感,但仍然需要解决先验知识调整和计算量大的问题
。
[0005]第三种是多模态信息融合的目标检测被广泛应用于自动驾驶领域
。
该方法将红外线图像
、
可见光图像等不同模态的信息进行融合,以提高目标检测的鲁棒性和准确性
。
然而,如果两种模态信息在物理特征上存在较大差异,则融合效果可能会受到很大影响
。
技术实现思路
[0006]针对上述问题,本专利技术的目的是提供一种基于深度学习的多尺度雾天场景目标检测方法及系统,其可以在雾天气候条件下实现更准确的目标检测,从而提高在各领域中的应用效果
。
[0007]为实现上述目的,本专利技术采取以下技术方案:一种基于深度学习的多尺度雾天场景目标检测方法,其包括:将获取的雾天场景原始图像数据输入至预先训练好的雾视模型中,获取第一检测结果;其中,雾视模型为融合了平移窗口聚焦检测层及解耦检测头的
YOLOv5
网络;将雾天场景原始图像数据进行分割,将原始图像均匀划分成至少两块子图像,并将所有子图像等比放大后再次输入预先训练好的雾视模型中,获取第二检测结果;将第一检测结果与第二检测进行融合处理,得到雾天场景最终的目标检测结果
。
[0008]进一步,雾视模型的训练,包括:将雾天场景原始图像数据划分为训练集和测试集,并分别对训练集和测试集进行数据增强处理;
将数据增强处理后的训练集输入雾视模型进行训练,得到训练好的雾视模型;将测试集输入训练好的雾视模型,得到测试集结果,以输出雾天场景下的潜藏目标
。
[0009]进一步,分别对训练集和测试集进行数据增强处理,包括:训练集采用马赛克数据增强方法及混合数据方法进行数据增强处理;测试集采用尺度数据增强方法进行数据增强处理
。
[0010]进一步,雾视模型包括:骨干网络
、
颈部和检测头;在骨干网络中增加平移窗口聚焦检测层,平移窗口聚焦检测层位于骨干网络的最后一层,通过分解图像数据集中特征图的空间维度和通道维度,将特征图的信息进行全局性的交互和聚合,增强主干网络对目标位置的关注,使得目标的特征更容易被捕捉到;检测头采用解耦检测头,以完成最终阶段的检测任务
。
[0011]进一步,解耦检测头,是将原有的检测头部拆分成两个子网络:其中一个子网络用于回归目标框的偏移量和尺度信息,另一个自网络用于分类目标物体的类别信息
。
[0012]进一步,解耦检测头的检测方法,包括:在不同的任务之间共享特征表示,并且为每个任务单独训练一个分类器;通过共享特征表示,将所有任务共享的高层次语义信息编码为特征表示,以提高检测性能
。
[0013]进一步,将第一检测结果与第二检测进行融合处理,包括:将第二检测结果进行坐标重映射后,与第一检测结果进行合并,完成融合,得到最终的目标检测结果
。
[0014]一种基于深度学习的多尺度雾天场景目标检测系统,其包括:第一处理模块,将获取的雾天场景原始图像数据输入至预先训练好的雾视模型中,获取第一检测结果;其中,雾视模型为融合了平移窗口聚焦检测层及解耦检测头的
YOLOv5
网络;第二处理模块,将雾天场景原始图像数据进行分割,将原始图像均匀划分成至少两块子图像,并将所有子图像等比放大后再次输入预先训练好的雾视模型中,获取第二检测结果;融合模块,将第一检测结果与第二检测进行融合处理,得到雾天场景最终的目标检测结果
。
[0015]一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令当由计算设备执行时,使得所述计算设备执行上述方法中的任一方法
。
[0016]一种计算设备,其包括:一个或多个处理器
、
存储器及一个或多个程序,其中一个或多个程序存储在所述存储器中并被配置为所述一个或多个处理器执行,所述一个或多个程序包括用于执行上述方法中的任一方法的指令
。
[0017]本专利技术由于采取以上技术方案,其具有以下优点:
1、
本专利技术的雾视模型融合了平移窗口聚焦检测层和解耦检测头,提高了目标检测的准确性和稳定性
。
[0018]2、
本专利技术引入解耦检测头有助于关注目标位置,从而更好地提取目标信息,同时抑制雾气的干扰,提高雾天场景下的目标检测效果
。
[0019]3、
本专利技术的分割融合模块通过分割放大再检测的策略,有效地挖掘出更多雾天场景下的目标,包括大尺度物体和小物体,从而提升了检测的全面性和多样性
。
[0020]4、
本专利技术使得雾视模型在复杂的雾天条件下能够更好地应用于目标检测任务,具有较高的实用价值
。
附图说明
[0021]图1是本专利技术实施例中的多尺度雾天场景目标检测方法流程图
。
[0022]图2是本专利技术实施例中的雾视模型训练流程图
。
[0023]图3是本专利技术实施例中的雾视模型结构图
。
具体实施方式
[0024]下面结合附图和实施例对本专利技术进行详细的描述
。
[0025]为使本专利技术实施例的目的
、
技术方案和优点更加清楚,下面将结合本专利技术实施例的附图,对本专利技术实施例的技术方案进行清楚
、
完整地描述
。
显然,所描述的实施例是本专利技术的一部分实施例,而不是全部的实施例
。
基于所描述的本专利技术的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本专利技术保护的范围
。
[0026]需要注本文档来自技高网...
【技术保护点】
【技术特征摘要】
1.
一种基于深度学习的多尺度雾天场景目标检测方法,其特征在于,包括:将获取的雾天场景原始图像数据输入至预先训练好的雾视模型中,获取第一检测结果;其中,雾视模型为融合了平移窗口聚焦检测层及解耦检测头的
YOLOv5
网络;将雾天场景原始图像数据进行分割,将原始图像均匀划分成至少两块子图像,并将所有子图像等比放大后再次输入预先训练好的雾视模型中,获取第二检测结果;将第一检测结果与第二检测进行融合处理,得到雾天场景最终的目标检测结果
。2.
如权利要求1所述基于深度学习的多尺度雾天场景目标检测方法,其特征在于,雾视模型的训练,包括:将雾天场景原始图像数据划分为训练集和测试集,并分别对训练集和测试集进行数据增强处理;将数据增强处理后的训练集输入雾视模型进行训练,得到训练好的雾视模型;将测试集输入训练好的雾视模型,得到测试集结果,以输出雾天场景下的潜藏目标
。3.
如权利要求2所述基于深度学习的多尺度雾天场景目标检测方法,其特征在于,分别对训练集和测试集进行数据增强处理,包括:训练集采用马赛克数据增强方法及混合数据方法进行数据增强处理;测试集采用尺度数据增强方法进行数据增强处理
。4.
如权利要求1所述基于深度学习的多尺度雾天场景目标检测方法,其特征在于,雾视模型包括:骨干网络
、
颈部和检测头;在骨干网络中增加平移窗口聚焦检测层,平移窗口聚焦检测层位于骨干网络的最后一层,通过分解图像数据集中特征图的空间维度和通道维度,将特征图的信息进行全局性的交互和聚合,增强主干网络对目标位置的关注,使得目标的特征更容易被捕捉到;检测头采用解耦检测头,以完成最终阶段的检测任务
。5.
如权利要求4所述基于深度学习的多尺度雾天场景目标检测方法,其特征在于,解耦检测头,是将原有的检测...
【专利技术属性】
技术研发人员:孟祥林,金笃煊,金林浩,刘翼,范丽丽,范晶晶,
申请(专利权)人:江苏智能无人装备产业创新中心有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。