一种基于融合策略的目标物体边缘检测方法与系统技术方案

技术编号:26305676 阅读:15 留言:0更新日期:2020-11-10 20:03
本发明专利技术公开了一种基于融合策略的目标物体边缘检测方法:去除传统边缘检测网络中最后两个用于下采样的池化层,提高后两个侧边输出层的边缘精度,为了降低去除池化层后对感受野的影响,在最后两部分网络中使用扩张卷积来提升感受野;利用改进边缘检测网络对待检测图片进行检测得到边缘,将通过金字塔多尺度Canny算子检测到的精细边缘与优化后的改进边缘检测网络输出边缘进行融合,进一步提升边缘精确度得到边缘融合图片;对边缘融合图片进行后处理排除非目标物体边缘,在输出的边缘图片中定位目标物体的边缘。本发明专利技术还提供了相应的基于融合策略的目标物体边缘检测系统。

【技术实现步骤摘要】
一种基于融合策略的目标物体边缘检测方法与系统
本专利技术属于图片处理
,更具体地,涉及一种基于融合策略的目标物体边缘检测方法与系统。
技术介绍
在不同的应用中,需要从图片中检测目标物体的边缘例如检测电路板的边缘,智能驾驶中路面边缘等等,在复杂背景干扰的图片中检测目标物体的边缘显得十分重要和具有挑战性。边缘检测是计算机视觉领域的传统研究方向,传统的方法大部分都只关注图片的局部特征,所以检测效果很容易受噪声影响,在检测物体边缘时常常出现误检或漏检的情况,近年来出现的很多基于深度学习的边缘检测方法都利用了图片的多尺度信息和高层语义信息,比传统边缘检测方法鲁棒性更好,但检测的边缘不够精细,影响后续对目标物体区域的精确定位。
技术实现思路
针对现有技术的以上缺陷或改进需求,本专利技术提出一种基于融合策略的目标物体边缘检测方法,其目的在于,将通过金字塔多尺度Canny算子检测到的精细边缘与优化后的改进边缘检测网络输出边缘进行融合,进一步提升边缘精确度,由此解决现有技术中检测的边缘不够精细的技术问题。为实现上述目的,按照本专利技术的一个方面,提供了一种基于融合策略的目标物体边缘检测方法,包括:改进边缘检测网络:去除传统边缘检测网络中最后两个用于下采样的池化层,提高后两个侧边输出层的边缘精度,为了降低去除池化层后对感受野的影响,在最后两部分网络中使用扩张卷积来提升感受野;图片边缘融合:利用改进边缘检测网络对待检测图片进行检测得到边缘,将通过金字塔多尺度Canny算子检测到的精细边缘与优化后的改进边缘检测网络输出边缘进行融合,进一步提升边缘精确度得到边缘融合图片;目标物体边缘定位:对边缘融合图片进行后处理排除非目标物体边缘,在输出的边缘图片中定位目标物体的边缘。本专利技术的一个实施例中,所述改进边缘检测网络由传统边缘检测网络改进后得到,具体为:由5个stage组成,只在前三个stage之间保留了2×2的最大池化层,stage2和stage3输出的边缘特征图尺寸分别为输入图片的1/2和1/4,所以stage4和stage5输出的特征图尺寸均为输入图片的1/4,网络中后两个stage输出特征图尺寸分别为输入图片的1/8和1/16;对于每一个stage内部的卷积层,首先通过1×1的卷积层降低通道数,进行特征压缩,然后进行相加,再通过一个1×1的卷积层将通道数降低为1,并进行反卷积操作,使输出特征图尺寸与输入图片保持一致,最后再融合输出最终的边缘预测图。本专利技术的一个实施例中,所述改进边缘检测网络在传统边缘检测网络中的stage4和stage5引入了扩张卷积,三个卷积核的扩张系数分别为1、2和4,而它们的感受野大小分别为3×3、7×7和15×15,扩张卷积在不增加网络参数不减小图片尺寸的前提下提升了网络的感受野。本专利技术的一个实施例中,改进边缘检测网络的损失函数为:L(W)=λ1*Lside(W)+(1-λ1)Lfuse(W)其中λ1是加权系数,Lside(W)为侧边输出损失,Lfuse(W)为融合损失。本专利技术的一个实施例中,所述侧边输出损失融合损失其中代表网络中第k个stage输出的预测值,代表融合输出层的预测值,|I|代表图片I中像素点的数量,K代表网络中stage的数量,l(Xi;W)为单个像素点的损失函数。本专利技术的一个实施例中,所述单个像素点的损失函数如下式所示:其中,上式中,|Y+|和|Y-|分别代表边缘像素点数量和非边缘像素点数量,超参数λ用来解决图片中正负样本数量不均衡的问题,Xi和yi分别代表在第i个像素点处网络预测输出值和边缘标签图中的标记值,P(X)代表标准的sigmoid函数,W代表整个网络所有的参数。本专利技术的一个实施例中,所述单个像素点的损失函数基于待检测图片的边缘概率图来计算,具体地:对于待检测图片的边缘标签图,将所有标记者的标记结果进行平均,再将平均后的图片进行归一化得到边缘概率图,其中0代表没有标记者将此处标记为边缘点,1代表所有人都将此处标记为边缘点;然后,对于概率值大于η的像素点,将其作为边缘点,对于概率值为0的像素点,作为非边缘点,对于概率值介于两者之间的,则忽略此像素点的损失,η为预设概率阈值。本专利技术的一个实施例中,通过金字塔多尺度Canny算子检测到精细边缘,具体为:将待检测图片进行金字塔多尺度的采样:分别得到1/2,1/4,1/8尺度的多幅图片,在每幅图片上进行canny算子进行图片检测,其中Canny算子中双阈值的高阈值设定为一个较低的值,以尽可能检测出更多的边缘。本专利技术的一个实施例中,将通过金字塔多尺度Canny算子检测到的精细边缘与优化后的改进边缘检测网络输出边缘进行融合,具体为:设IRCF是通过改进边缘检测网络输出的二值化边缘图片,ICanny是通过金字塔多尺度Canny算子综合输出的二值化边缘图片,则可以通过下式计算最终边缘图片IOutput:IOutput(i,j)=IRCF(i,j)&ICanny(i,j)其中,(i,j)代表图片中位置在(i,j)处的像素点。按照本专利技术的另一方面,还提供了一种基于融合策略的目标物体边缘检测系统,包括图片边缘融合模块和目标物体边缘定位模块,其中:所述图片边缘融合模块,用于利用改进边缘检测网络对待检测图片进行检测得到边缘,将通过金字塔多尺度Canny算子检测到的精细边缘与优化后的改进边缘检测网络输出边缘进行融合,进一步提升边缘精确度得到边缘融合图片;所述目标物体边缘定位,用于对边缘融合图片进行后处理排除非目标物体边缘,在输出的边缘图片中定位目标物体的边缘;其中,所述改进边缘检测网络为:去除传统边缘检测网络中最后两个用于下采样的池化层,提高后两个侧边输出层的边缘精度,为了降低去除池化层后对感受野的影响,在最后两部分网络中使用扩张卷积来提升感受野。总体而言,通过本专利技术所构思的以上技术方案与现有技术相比,具有如下有益效果:本专利技术采用优化的基于深度学习的边缘检测网络,使用扩张卷积来提升感受野,提高对物体边界检测的适应性,并且在深度学习网络中设计了加权的损失函数,对模糊边界定位更加准确。另一方面,结合了金字塔多尺度的canny算子,增加对不同区域和不同长短边界定位的敏感性。融合深度学习和金字塔多尺度canny的边界检测,综合提高算法对目标物体边界检测的准确度。附图说明图1是本专利技术实施例中一种基于融合策略的目标物体边缘检测方法的流程示意图;图2是本专利技术实施例中一种基于融合策略的目标物体边缘检测系统的结构示意图。具体实施方式为了使本专利技术的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本专利技术进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本专利技术,并不用于限定本专利技术。此外,下面所描述的本专利技术各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。针对现有本文档来自技高网...

【技术保护点】
1.一种基于融合策略的目标物体边缘检测方法,其特征在于,包括:/n改进边缘检测网络:去除传统边缘检测网络中最后两个用于下采样的池化层,提高后两个侧边输出层的边缘精度,为了降低去除池化层后对感受野的影响,在最后两部分网络中使用扩张卷积来提升感受野;/n图片边缘融合:利用改进边缘检测网络对待检测图片进行检测得到边缘,将通过金字塔多尺度Canny算子检测到的精细边缘与优化后的改进边缘检测网络输出边缘进行融合,进一步提升边缘精确度得到边缘融合图片;/n目标物体边缘定位:对边缘融合图片进行后处理排除非目标物体边缘,在输出的边缘图片中定位目标物体的边缘。/n

【技术特征摘要】
1.一种基于融合策略的目标物体边缘检测方法,其特征在于,包括:
改进边缘检测网络:去除传统边缘检测网络中最后两个用于下采样的池化层,提高后两个侧边输出层的边缘精度,为了降低去除池化层后对感受野的影响,在最后两部分网络中使用扩张卷积来提升感受野;
图片边缘融合:利用改进边缘检测网络对待检测图片进行检测得到边缘,将通过金字塔多尺度Canny算子检测到的精细边缘与优化后的改进边缘检测网络输出边缘进行融合,进一步提升边缘精确度得到边缘融合图片;
目标物体边缘定位:对边缘融合图片进行后处理排除非目标物体边缘,在输出的边缘图片中定位目标物体的边缘。


2.如权利要求1所述的基于融合策略的目标物体边缘检测方法,其特征在于,所述改进边缘检测网络由传统边缘检测网络改进后得到,具体为:
由5个stage组成,只在前三个stage之间保留了2×2的最大池化层,stage2和stage3输出的边缘特征图尺寸分别为输入图片的1/2和1/4,所以stage4和stage5输出的特征图尺寸均为输入图片的1/4,网络中后两个stage输出特征图尺寸分别为输入图片的1/8和1/16;对于每一个stage内部的卷积层,首先通过1×1的卷积层降低通道数,进行特征压缩,然后进行相加,再通过一个1×1的卷积层将通道数降低为1,并进行反卷积操作,使输出特征图尺寸与输入图片保持一致,最后再融合输出最终的边缘预测图。


3.如权利要求2所述的基于融合策略的目标物体边缘检测方法,其特征在于,所述改进边缘检测网络在传统边缘检测网络中的stage4和stage5引入了扩张卷积,三个卷积核的扩张系数分别为1、2和4,而它们的感受野大小分别为3×3、7×7和15×15,扩张卷积在不增加网络参数不减小图片尺寸的前提下提升了网络的感受野。


4.如权利要求1或2所述的基于融合策略的目标物体边缘检测方法,其特征在于,改进边缘检测网络的损失函数为:
L(W)=λ1*Lside(W)+(1-λ1)Lfuse(W)
其中λ1是加权系数,Lside(W)为侧边输出损失,Lfuse(W)为融合损失。


5.如权利要求4所述的基于融合策略的目标物体边缘检测方法,其特征在于,所述侧边输出损失融合损失其中代表网络中第k个stage输出的预测值,代表融合输出层的预测值,|I|代表图片I中像素点的数量,K代表网络中stage的数量,l(Xi;W)为单个像素点的损失函数。


6.如权利要求5所述的基于融合策略的目标物体边缘检测方法,其特征在于,所述单个像素点的损失函数如下式所示:



其中,

【专利技术属性】
技术研发人员:彭秀英彭松仁周曼莉王红娟
申请(专利权)人:武汉伊特森科技有限公司
类型:发明
国别省市:湖北;42

相关技术
    暂无相关专利
网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1