【技术实现步骤摘要】
一种基于深度学习的轻量级车辆检测方法
[0001]本专利技术属于图像处理及目标检测
,具体涉及一种基于深度学习的轻量级车辆检测方法。
技术介绍
[0002]车辆检测属于通用目标检测领域的一个分支,它通过对车载摄像头的视频数据进行特征提取和分类,从而检测出轿车,卡车,货车等车辆目标,为IDS提供周边车辆位置,类别,大小等信息供其进行智能决策。
[0003]深度学习的出现极大地推动了目标检测领域的发展,凭借着深度神经网络(Deep Neural Networks,DNN)强大的特征提取能力,基于深度学习的目标检测算法迅速成为研究主流。尽管这类算法虽然准确率较高,但常见的算法的网络结构复杂、参数量大、计算量大,而汽车搭载的处理器性能有限,在运行这类复杂的算法时,无法满足实时性需求。而目前常见的轻量级检测算法如YOLOv4
‑
Tiny,NanoDet等,对车辆目标检测的准确率较低。
技术实现思路
[0004]为了克服上述现有技术存在的缺陷,本专利技术的目的在于提出一种基于深度学习的轻量级车辆检测方法,一方面能够减小算法模型的参数量和计算量,另一方面提升了检测模型的准确率,具有实时性好、计算量小、准确率高的优点,能够很好地在车载设备上进行实时车辆检测任务。
[0005]为了实现上述目的,本专利技术采用的技术方案是:
[0006]一种基于深度学习的轻量级车辆检测方法,具体包括以下步骤:
[0007]步骤1.输入待检测的车载视频图像数据;
[0008] ...
【技术保护点】
【技术特征摘要】
1.一种基于深度学习的轻量级车辆检测方法,其特征在于:具体包括以下步骤:步骤1.输入待检测的车载视频图像数据;步骤2.将步骤1输入的图像通过包括随机的翻转,亮度增强,对比度增强,饱和度增强,标准化,尺度缩放,拉伸方法进行预处理;步骤3.将步骤2预处理过的图像输入到轻量级骨干网络ResCSPNet
‑
Tiny进行多次下采样特征提取,并输出经过下采样特征提取后的多尺度特征P
i
;步骤4.通过轻量级的路径聚合网络LPANet对步骤3得到的多尺度特征P
i
进行融合,并输出融合之后的多尺度特征C
i
;步骤5.通过多尺度的预测子网络对步骤4得到的多尺度特征C
i
进一步处理,得到最终的多尺度预测值O
i
;步骤6.对步骤5得到的多尺度预测值O
i
进行解码,得到预测的目标类别得分Score与位置信息Pre
box
;步骤7.进行正负样本标签划分,计算获得正负样本的标签;然后通过GFL和GIOU进行损失计算,采用反向传播算法迭代更新模型参数,最终完成算法模型的训练;步骤8.在算法模型的实际使用阶段,直接将步骤6得到的目标类别得分Score与位置信息Pre
box
通过NMS处理过后输出车辆检测的结果。2.根据权利要求1所述的一种基于深度学习的轻量级车辆检测方法,其特征在于:所述步骤3具体为:通过对轻量级骨干网络ResCSPNet
‑
Tiny的特征提取单元,进行多次下采样特征提取,输出多尺度特征P
i
:第一特征提取单元,用于将输入图像依次经过切片操作、标准卷积层,得到特征图P1;第二特征提取单元,用于将第一特征提取单元输出的特征图P1经过浅层残差模块和下采样模块,得到特征图P2;第三特征提取单元,用于将第二特征提取单元输出的特征图P2经过浅层残差模块和下采样模块,得到特征图P3;第四特征提取单元,用于将第三特征提取单元输出的特征图P3经过跨层级局部模块和下采样模块,得到特征图P4;第五特征提取单元,用于将第四特征提取单元输出的特征图P4经过跨层级局部模块和下采样模块,得到特征图P5。3.根据权利要求1所述的一种基于深度学习的轻量级车辆检测方法,其特征在于:所述步骤4具体为:将步骤3中得到的多尺度特征图P3,P4,P5分别通过卷积层,变换通道维度;构建自上而下的特征融合路径,通过双线性插值的操作来完成对多尺度特征图P4,P5的上采样,通过相加操作来完成不同尺度特征间的融合,得到多尺度特征图H3,H4,H5;构建自下而上的特征融合路径,通过双线性插值的操作来完成对多尺度特征图H3,H4的下采样,通过相加操作来完成不同尺度特征间的融合,得到多尺度特征图C3,C4,C5。4.根据权利要求1所述的一种基于深度学习的轻量级车辆检测方法,其特征在于:所述步骤5具体为:对多尺度特征图C3,C4,C5依次通过卷积层、批量归一化层、激活函数层和卷积层后,得到最终的多尺度预测值O3,O4,O5。
5.根据权利要求1所述的一种基于深度学习的轻量级车辆检测方法,其特征在于:所述步骤7具体为:1).自定义设置深度学习网络训练超参数样本集;2).将步骤7第1)步训练样本集中batch张图像输入到构建的网络中进行前向传播,得到预测的多尺度特征O
i
;3).解码步骤7第2)步得到的多尺度特征O
i
中的不同尺度特征的预测信息:3.1)对多尺度特征O
i
在通道维度进行划分,得到维度为N的质量预测值Pre
cls
和维度为4*RegMax边框回归预测值Pre
box
;3.2)对于一个S
×
S尺寸的多尺度特征O
i
,将这S2个特征点映射回原图中,得到预设锚点A的坐标;3.3)对于质量预测Pre
cls
,在通道维度通过Sigmoid函数激活之后,得到每一个锚点位置对应类别的分类预测得分Score;3.4)对于边框回归预测Pre
box
,其值代表当前锚点A
xy
距离预测框4条边的距离(t,r,b,l),采用一个长度为RegMax的一维向量V来表示;将每条边的距离向量V进行Softmax函数之后,每个位置的值就代表其处在当前位置的概率,最终实际的距离distance,采用期望的方式来计算;4)进行正负样本标签划分:4.1)初始化质量预测的目标标签label
cls
,边框回归的目标标签label
reg
;4.2)通过步骤7第3.1)步得到的回归预测值Pre
box
得到距离向量(t,r,b,l),然后将其与P
xy
进行解码,得到算法预测的目标框anchor;4.3)选出所有中心点P落入GT
box
内的P及其对应的anchor,记为P
candidate
,anchor
candidate
,将P
candidate
的label
cls
置为对应GT
box
的GT
label
;4.4)计算所有anchor
candidate
与GT
box
的iou,记为score
iou
;计算iou的代价cost
iou
=
‑
log(score
iou
);4.5)对于P
candidate
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。