本发明专利技术涉及深度学习领域,公开了一种渐进式多损失函数约束下的行人重识别动态训练方法和系统;通过关键点检测技术确定行人裁剪框位置,通过padding方式进行行人部件对齐;设计网络结构对不同尺寸细节特征进行提取;通过渐进式多损失联合约束方法对提取的特征向量进行动态训练。比较每个图像块之间的相似度,实现更精准、更有效的特征比对;设计多尺度特征提取模块,捕捉不同尺寸细节特征,增加网络特征提取能力;渐进式多损失联合约束方法进行动态训练,其调控性强、灵活度高;可根据不同训练阶段,逐步控制类内距离和类间距离不断趋向于理想状态,最终提升模型特征提取能力,优化模型效果。型效果。型效果。
【技术实现步骤摘要】
一种渐进式多损失函数约束下的行人重识别动态训练方法和系统
[0001]本专利技术涉及深度学习领域,尤其涉及了基于渐进式联合损失函数约束下的行人重识别动态训练方法和系统。
技术介绍
[0002]行人重识别也称行人再识别,是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术,该技术在在监控设备视觉领域非常重要。
[0003]虽然目前的人脸识别技术非常成熟,能够通过人脸比对搜索和识别判断出某个人,但是也存在一些局限性,比如人脸识别在行人带着面罩,背对监控等特殊情况下将无法识别。
[0004]行人重识别技术可以实现给定一个监控行人图像,检索出不同设备下的该行人图像。行人重识别技术可以对无法获取清晰拍摄人脸的行人进行跨摄像头连续跟踪,增强数据的时空连续性,在安防、寻找失踪儿童等的场景中,协同人脸识别技术,协助高效处理事件。然而,目前行人重识别的研究也面临着诸如姿态变化大、服装过于相似等挑战,如何提升模型识别性能,减少误检、漏检,成为了行业内一个重要研究分支。
[0005]专利名称为:一种行人重识别方法及系统,申请号为:CN201910672444.2,申请日:2019
‑
07
‑
24,专利申请中公开了通过行人分析网络对输入图像进行行人分析,提取输入图像中的行人的细粒度特征;将细粒度特征与行人重识别网络模型的卷积层输出的输入图像的行人特征融合;根据融合后的行人特征,识别输入图像中的行人。该专利采用了业界常用的Resnet50为骨架网络,而本专利技术使用了自行设计的并行多分支多尺度特征提取结构为主干网络,具备更强的细节特征挖掘能力。本专利技术所涉及损失函数以及模型训练方法和该专利完全不同。该专利选用普通三元组损失函数以及交叉熵损失函数,使用通用训练方案。而本专利技术考虑到每个类别的优化难度及方向不一致,针对每个类别设有不同调控因子,且在训练过程中采用渐进式训练策略。
[0006]专利名称为:一种联合多损失动态训练策略增强局部特征学习的行人重识别方法,申请号为:CN2020109348839,申请日:2020
‑
09
‑
08,专利申请中公开了一种利用部件对齐思想进行特征匹配,采用自注意力机制网络提取非行人局部特征;专利强调该局部特征主要为行人携带物品,并将行人全局特征和该局部特征融合用于行人重识别。训练方法上,使用动态训练交叉熵和三元组损失函数方法优化模型参数。不同的是,本专利技术和该专利对齐方法不同,所采用网络结构也完全不相同。该专利涉及的动态训练方法是一种针对当前两个损失函数平均损失值,添加一平均移动因子,通过控制该平均移动因子,控制约束强度。本专利技术中的动态训练过程调控更为精准细致。
技术实现思路
[0007]本专利技术针对现有技术在行人重识别过程中,其姿态变化大,服装过于相似,这样模
型识别性能差,容易存在误检和漏检的问题,提供了一种渐进式多损失函数约束下的行人重识别动态训练方法和系统。
[0008]为了解决上述技术问题,本专利技术通过下述技术方案得以解决:
[0009]一种渐进式多损失函数约束下的行人重识别动态训练方法,其方法包括
[0010]标准化对齐,通过关键点检测技术确定行人裁剪框位置,并通过padding方式进行行人部件对齐;
[0011]多尺度特征提取,设计网络结构对不同尺寸细节特征进行提取;
[0012]渐进式多损失联合约束动态训练;通过渐进式多损失联合约束方法对提取的特征向量进行动态训练。
[0013]通过标准化对齐,比较每个图像块之间的相似度,实现更精准、更有效的特征比对;将图像识别问题升级为实例识别问题,设计了多尺度特征提取模块,用于捕捉不同尺寸细节特征,增加网络特征提取能力;渐进式多损失联合约束方法进行动态训练,其调控性强、灵活度高;可根据不同训练阶段,逐步控制类内距离和类间距离不断趋向于理想状态,最终提升模型特征提取能力,优化模型效果。
[0014]作为优选,渐进式多损失联合约束动态训练方法包括FixTriplet和HAAM联合损失函数。通过FixTriplet联合损失函数将约束区间放大,要求最大类内距离也应该始终小于任何两个行人的类别间距离。损失函数所具备更大的容错空间,若出现类间距离极其小或者类内距离极其大的输入对,认为该输入是异常值,对该计算结果进行优化处理。
[0015]作为优选,渐进式多损失联合约束动态训练,
[0016]第一步,计算每个身份A中最大类内距离,身份B所对应的存在最小类间距离身份C,并在A、B和C内随机采样,通过预先计算每个身份A所对应的存在最小类间距离身份B,并在A和B内随机采样,构建有效三元组输入
[0017],即FixTriplet损失函数L
FTP
;
[0018][0019]公式中,其中A1和A2分别表示同一个行人的两张不同图像,B和C表示身份不同的两个行人图像,满足条件ABC至少包含两个行人;[
·
]+
表示函数max(
·
,0),m表示控制距离的超参,MA表示最大类内距离,MI表示最小类间距离,ε和η表示修正值,s1和s2分别代表临界异常值;
[0020]第二步,通过损失函数HAAM损失函数L
HAAM
的将特征映射到一个超球面上,
[0021][0022]公式中,其中,s表示HAAM损失超球面半径,N表示每次迭代中输入图片数量,y
i
表示每次迭代中输入标签对应的索引值,和cosθ
j
(j≠y
i
)分别表示类内相似度和类间
相似度,m
i
表示距离控制超参,k表示训练集中总共的分类数量,a和b为控制参数;
[0023]第三步,通过损失函数L
HAAM
和L
FTP
获得最终损失值l
all
。
[0024]作为优选,关键点检测技术确定特征向量包括人头部、肩关节、髋关节。
[0025]作为优选,标准化对齐,
[0026]行人位置确定,用关键点检测技术锁定行人位置;
[0027]裁剪框坐标信息的转换,将行人位置的关键点坐标转换成裁剪框坐标信息,
[0028]图像数据的获取,通过在裁剪框坐标信息内获取图像数据;
[0029]图像数据纵横比判断,对于获取的图像数据,并判断图像纵横比是否为标准值,不为标准值则通过padding的方式对齐。
[0030]作为优选,纵横比包括身体头肩部比、肩膀到髋关节部位比、下肢的尺寸比。
[0031]作为优选,多尺度特征提取
[0032]通过1*1卷积降维得到特征向量,将得到的特征向量输入类金字塔结构,经过三个不同深度卷积组得到的特征通过有空间注意力机制,获得不同部位的特征向量;
[0033]在经过四次多尺度特征提取后,网络输出F同时输入到两个分支中,其中第一个分支将F非均匀划分本文档来自技高网...
【技术保护点】
【技术特征摘要】
1.一种渐进式多损失函数约束下的行人重识别动态训练方法,其方法包括标准化对齐,通过关键点检测技术确定行人裁剪框位置,并通过padding方式进行行人部件对齐;多尺度特征提取,设计网络结构对不同尺寸细节特征进行提取;渐进式多损失联合约束动态训练;通过渐进式多损失联合约束方法对提取的特征向量进行动态训练。2.根据权利要求1所述的一种渐进式多损失函数约束下的行人重识别动态训练方法,其特征在于,渐进式多损失联合约束动态训练方法包括FixTriplet和HAAM联合损失函数。3.根据权利要求1所述的一种渐进式多损失函数约束下的行人重识别动态训练方法,其特征在于,渐进式多损失联合约束动态训练,第一步,计算每个身份A中最大类内距离,身份B所对应的存在最小类间距离身份C,并在A、B和C内随机采样,构建有效三元组输入,即FixTriplet损失函数L
FTP
;公式中,其中A1和A2分别表示同一个行人的两张不同图像,B和C表示身份不同的两个行人图像,满足条件ABC至少包含两个行人;[
·
]
+
表示函数max(
·
,0),m表示控制距离的超参,ε和η表示修正值,s1和s2分别代表临界异常值;第二步,通过损失函数HAAM损失函数L
HAAM
的将特征映射到一个超球面上,公式中,其中,s表示HAAM损失超球面半径,N表示每次迭代中输入图片数量,y
i
表示每次迭代中输入标签对应的索引值,和cosθ
j
(j≠y
i
)分别表示类内相似度和类间相似度,m
i
表示距离控制超参,k表示训练集中总共的分类数量,a和b为控制参数;第三步,通过损失函数L
HAAM
和L
FTP
获得最终损失值l
all
。...
【专利技术属性】
技术研发人员:夏秋婷,徐联伯,彭珂凡,
申请(专利权)人:杭州英歌智达科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。