【技术实现步骤摘要】
一种基于改进HAT注意力机制的YOLOv7车辆识别方法
[0001]本专利技术涉及计算机视觉
,特别是一种基于改进
HAT
注意力机制的
YOLOv7
车辆识别方法
。
技术介绍
[0002]近年来,车辆识别技术在人工智能领域的学术界和工业界引起了广泛的研究关注,其在智慧城市,自动驾驶,以及智能交通等领域均产生了积极的影响
。
现有技术中,对多类型车辆违章停车进行采集和数据处理,还无法实现对多类型机动车不同停车位
、
停车点的准确识别和快速响应,不适合在不同街道
、
公路
、
高速等环境进行连续监测
。
技术实现思路
[0003]有鉴于此,本专利技术的目的在于提供一种基于改进
HAT
注意力机制的
YOLOv7
车辆识别方法,能够准确有效地进行多类型车辆的违章检测识别
。
[0004]为实现上述目的,本专利技术采用如下技术方案:一种基于改进
HAT
注意力机制的
YOLOv7
车辆识别方法,包括以下步骤:
[0005]步骤
S1
:通过线上的监控数据集和线下的城镇监控摄像头的方式获取车辆数据集,将得到的数据集使用
AlignMix
方法进行数据增强处理;
[0006]步骤
S2
:将得到的数据集分别作为训练集和验证集,利用
Labeli ...
【技术保护点】
【技术特征摘要】
1.
一种基于改进
HAT
注意力机制的
YOLOv7
车辆识别方法,其特征在于:包括以下步骤:步骤
S1
:通过线上的监控数据集和线下的城镇监控摄像头的方式获取车辆数据集,将得到的数据集使用
AlignMix
方法进行数据增强处理;步骤
S2
:将得到的数据集分别作为训练集和验证集,利用
Labelimg
标注应用实现对数据的标注处理,实现数据的可利用性;步骤
S3
:使用改进的
HAT
注意力机制的
YOLOv7
目标检测算法,对数据集进行多次训练建模;步骤
S4
:按照指定训练参数进行迭代训练,根据
RSLoss
损失函数计算损失函数值并验证准确率不断保存最优模型,利用最终模型得到多类型车辆识别方法
。2.
根据权利要求1所述的一种基于改进
HAT
注意力机制的
YOLOv7
车辆识别方法,其特征在于:步骤
S1
具体包括以下步骤:步骤
S11
:通过线上监控数据集和线下城镇监控摄像头的方式获取车辆数据集;步骤
S12
:采用
AlignMix
方法对获得的数据集进行数据增强处理;将两张或多张的车辆图片剪切和粘贴到一张图像中;两个图像的对齐方法,主要是在图像的表征向量上使用
optimal transport
实现,得到两个图像的对齐矩阵,再结合对齐矩阵进行插值,同时保持一组特征的位置,这样得到两张或多张新的车辆图片,使得数据集的数据更具有普遍性
。3.
根据权利要求1所述的一种基于改进
HAT
注意力机制的
YOLOv7
车辆识别方法,其特征在于:步骤
S2
具体包括以下步骤:步骤
S21
:将得到的数据集分别作为训练集和验证集,使用
Labelimg
标注应用实现对数据的标注处理,并将结果以
YOLO
的形式输出到数据集对应的文件夹中,这样就完成数据方面的准备
。4.
根据权利要求1所述的一种基于改进
HAT
注意力机制的
YOLOv7
车辆识别方法,其特征在于:步骤
S3
具体包括以下步骤:步骤
S31
:
YOLOv7
目标检测算法在利用输入信息时只能使用有限的空间范围,因此我采用
Hybrid Attention Transformer
注意力机制,结合通道注意力和基于窗口的自注意力机制,充分利用它们在利用全局统计信息和强大的局部拟合能力方面的互补优势,旨在通过结合深度学习技术和注意力机制来改进图像超分辨率任务
SR
;具体实现由两个方面组成;步骤
S32
:首先我们要解决剩余混合注意力组
RHAG
;每个
RHAG
包含
M
个混合注意力块
HAB
和一个3×3卷积层;具体来说,对于第
RHAG_i
个
RHAG
,表示为
F
RHAG_i
‑1,0=
F
RHAG_i
‑1F
RHAG_i
‑1,
RHAG_j
=
H
HAB
(F
RHAG_i
‑1,
RHAG_j
)
,
RHAG
j
=1,2,
...
,
M
其中
F
RHAG_i
‑1,0和
F
RHAG_i
‑1表示第
RHAG_i
个
RHAG
的输入特征,
F
RHAG_i
表示第
RHAG_i+1
个
RHAG
的输入特征,
H
HAB
(F
RHAG_i
‑1,
RHAG_j
)
表示第
RHAG_i
个
RHAG
中第
RHAG_j
个
HAB
的输出特征,表示第
RHAG_i
个
RHAG
中第
RHAG_i
个卷积层的第
M
个输出特征;在一系列
HAB
的映射之后,插入一个
OCAB
来扩大基于窗口的
self
‑
attention
并更好地聚合跨窗口信息;在
RHAG
结束时,保留之后的卷积层还添加了残差连接以稳定训练过程;步骤
S33
:其次,我们要解决混合注意块
HAB
模块;
CAB
通道注意块与
SW
‑
MSA
模块并行插
入到标准
Swin Transformer
块中的第一个
LayerNorm
层之后的问题;在连续
HAB
中,每隔一段时间就会采用基于移位窗口的自我注意
(SM_MSA)
;将一个小的常数
α
乘以
CAB
的输出;...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。