基于双深度增强网络的步进式目标跟踪方法技术

技术编号:26892466 阅读:24 留言:0更新日期:2020-12-29 16:12
本发明专利技术提供了一种设计目标跟踪网络TNet,用于提取目标的深度卷积特征;对TNet进行离线训练,包括有监督预训练和增强学习训练;设计并训练跟踪结果评估网络ENet,用于输出跟踪过程中的在线采样行为,控制TNet的更新过程;在跟踪过程中利用TNet定位目标,然后根据ENet对当前跟踪结果的评估采样不同的训练样本,在线调整更新TNet,然后进入下一帧跟踪,逐步调整跟踪框成为目标的最小外接矩形。本发明专利技术能够更好地适应目标形变,增强了跟踪的鲁棒性和稳定性。

【技术实现步骤摘要】
基于双深度增强网络的步进式目标跟踪方法
本专利技术涉及视觉跟踪领域,特别涉及基于深度增强学习的精确目标跟踪。
技术介绍
视觉目标跟踪算法的任务是指定视频第一帧目标物体的位置、大小等状态的前提下,在后续帧中预测新的目标状态。随着深度学习,特别是卷积神经网络(CNN)在图像分类、目标检测领域取得巨大的成功,现有的目标跟踪算法大都采用预训练的CNN提取图像特征。SangdooYun,JongwonChoi,YoungjoonYoo,KiminYun,JinYoungChoi在其发表的论文“Action-DecisionNetworksforVisualTrackingwithDeepReinforcementLearning”(2017年IEEEConferenceonComputerVision&PatternRecognition论文集)中公开了ADNet跟踪算法,在利用CNN目标表达能力的同时,首先将目标跟踪嵌入强化学习框,其特点是由一系列深度强化学习得到的行为控制跟踪框,决策过程耗时小,通过调整跟踪框位置,实现了精确的目标跟踪,取得了当年OTB100数据集上的最佳结果。但是ADNet在跟踪过程中,由于目标长宽比固定,当目标发生旋转等较大形变时,无法跟踪目标,而且网络模型在线训练采用固定时间间隔、固定训练次数的方式,导致当发生遮挡、干扰时,ADNet网络被错误更新,模型退化,发生跟踪漂移甚至失败的情况。针对上述相关技术中的问题,目前尚未找到有效的解决方案。
技术实现思路
为了克服现有技术的不足,本专利技术提供一种基于双深度增强网络的步进式目标跟踪方法,在现有ADNet网络的基础上改进网络输出层的结构,增加目标窗口长宽方向上单独缩放的行为,以更好地适应目标形变;引入一个新的基于深度增强网络的跟踪状态评估网络,以指导跟踪网络的在线更新过程。本专利技术解决其技术问题所采用的技术方案包括以下步骤:步骤1,设计目标跟踪网络TNet,用于提取目标的深度卷积特征;对TNet进行离线训练,包括有监督预训练和增强学习训练;步骤2,设计并训练跟踪结果评估网络ENet,用于输出跟踪过程中的在线采样行为,控制TNet的更新过程;步骤3,在跟踪过程中,利用TNet定位目标,然后根据ENet对当前跟踪结果的评估采样不同的训练样本,在线调整更新TNet,然后进入下一帧跟踪,重复本步骤,逐步调整跟踪框成为目标的最小外接矩形。所述的步骤1中,TNet的输入为图像块,经过三个以上的卷积层提取图像的深层卷积特征,然后经过两个以上的全连接层后至行为输出层和目标可信度输出层;行为输出层输出4个方向的位移{Tleft,Tright,Tup,Tdown}来准确定位目标中心,输出4个尺度变化{Hexpand,Hshrink,Wexpand,Wshrink}以应对目标长宽方向上不一致的形变,输出终止操作{stop};目标可信度输出层输出为对应的行为置信度。所述的4个尺度变化中高度方向和宽度方向上的尺度独立变化。所述的步骤1中,利用公开的物体检测数据集,采用有监督学习方法对TNet进行预训练,目标函数定义为多任务交叉熵损失函数LTNet=λ1×Lcross-entropy(conf,conf~)+(1-λ1)×Lcross-entropy(act,act~),其中Lcross-entropy表示经过one-hot形式的交叉熵损失函数,conf、act分别为网络行为输出层和目标可信度输出层的输出,conf~、act~分别为对应的真值,λ1表示两项损失的权重分配。所述的λ1取值范围为[0.55,0.73]。所述的步骤1中,固定经过预训练的TNet卷积层的网络参数,在多帧图像序列上对其全连接层进行增强学习训练,在序列的每一帧图像中,利用预训练的TNet定位目标,直至最后一帧的结果与真值进行比较。所述的步骤2中,ENet的除输出层以外的其它层结构与TNet相同,且所有卷积层参数共享,输入为当前帧TNet的跟踪框内图像块,同时在倒数第二层的输出后串接之前帧的历史跟踪结果;ENet的输出为采样行为{samplesuf,sampleneg,samplenone},表示在当前帧采样TNet网络训练数据的程度和方式,通过实施不同的采样行为,TNet的在线微调样本也发生相应的变化。所述的步骤2中,ENet的训练直接采用增强学习,输出随机初始化,其它层参数用TNet的进行初始化,卷积层参数固定,训练数据为视频序列,训练模拟了跟踪的过程,最终的奖励函数为其中BBTNet+ENet为使用ENet评估辅助后TNet的跟踪结果,BBTNet为TNet在最后一帧的跟踪结果,GT为最后一帧的目标真实状态,IoU(·)计算两个矩形框的重叠率。所述的步骤3中,视频第一帧的待跟踪目标状态由人工或交互算法给定,距离目标中心小于设定阈值的圆形区域采样正样本,距离目标中心大于设定阈值的环形区域采样负样本,对TNet进行状态调整;从视频第二帧开始,将TNet跟踪得到的目标区域输入ENet的第一个卷积层,将TNet在每一帧最后一次迭代的输出与ENet网络fc5层输出串接作为fc6层输入,得到预测的采样行为;根据采样行为对TNet的训练样本集进行调整。所述的步骤3中,TNet对目标的状态调整通过下式实现其中i为步进式调整的迭代次数,{cx,cy,h,w}为目标的中心坐标和高宽值,ai为本次迭代TNet预测的行为;每种行为对应的情况中未列出的状态项与上次迭代保持一致,不改变;所述的根据采样行为对TNet的训练样本集进行调整,调整方式为其中Pt、Nt分别为在当前帧采样的正、负样本集合,U为集合求并操作,Post和Negt为第t帧TNet的在线微调训练样本,{samplesuf,sampleneg,samplenone}为ENet的三种输出行为。本专利技术的有益效果是:第一,本专利技术充分考虑被跟踪物体的任意性,设计了完备的跟踪框调整行为,通过预训练使跟踪网络TNet具有了目标表达能力,通过强化学习模拟跟踪过程,使TNet具备了迭代调整跟踪框的能力,通过在线微调使TNet能够自适应地跟踪特定的目标物体,克服了现有技术当目标形态发生剧烈变化时无法精确跟踪的问题。第二,引入一个新的深度增强网络ENet对TNet的在线微调进行控制,指导跟踪网络的在线更新过程,避免了TNet因错误或不合适的采样导致模型的退化,克服了现有技术在目标被遮挡或干扰,特别是长时间遮挡情况下的跟踪失败问题,增强了跟踪的鲁棒性和稳定性。附图说明图1是基于双深度增强网络的步进式目标跟踪算法在一帧图像上的实施流程图。图2是基于双深度增强网络的步进式目标跟踪算法示意图。图3是本专利技术方法在OTB100上与ADNet的精度曲线和成功率曲线对比结果图其中,(a)是精度曲线对比结果,(b)是成功率曲线对比结果。具体实施方式下面结合附图和实施例对本专利技术进一本文档来自技高网...

【技术保护点】
1.一种基于双深度增强网络的步进式目标跟踪方法,其特征在于包括以下步骤:/n步骤1,设计目标跟踪网络TNet,用于提取目标的深度卷积特征;对TNet进行离线训练,包括有监督预训练和增强学习训练;/n步骤2,设计并训练跟踪结果评估网络ENet,用于输出跟踪过程中的在线采样行为,控制TNet的更新过程;/n步骤3,在跟踪过程中,利用TNet定位目标,然后根据ENet对当前跟踪结果的评估采样不同的训练样本,在线调整更新TNet,然后进入下一帧跟踪,重复本步骤,逐步调整跟踪框成为目标的最小外接矩形。/n

【技术特征摘要】
1.一种基于双深度增强网络的步进式目标跟踪方法,其特征在于包括以下步骤:
步骤1,设计目标跟踪网络TNet,用于提取目标的深度卷积特征;对TNet进行离线训练,包括有监督预训练和增强学习训练;
步骤2,设计并训练跟踪结果评估网络ENet,用于输出跟踪过程中的在线采样行为,控制TNet的更新过程;
步骤3,在跟踪过程中,利用TNet定位目标,然后根据ENet对当前跟踪结果的评估采样不同的训练样本,在线调整更新TNet,然后进入下一帧跟踪,重复本步骤,逐步调整跟踪框成为目标的最小外接矩形。


2.根据权利要求1所述的基于双深度增强网络的步进式目标跟踪方法,其特征在于:所述的步骤1中,TNet的输入为图像块,经过三个以上的卷积层提取图像的深层卷积特征,然后经过两个以上的全连接层后至行为输出层和目标可信度输出层;行为输出层输出4个方向的位移{Tleft,Tright,Tup,Tdown}来准确定位目标中心,输出4个尺度变化{Hexpand,Hshrink,Wexpand,Wshrink}以应对目标长宽方向上不一致的形变,输出终止操作{stop};目标可信度输出层输出为对应的行为置信度。


3.根据权利要求2所述的基于双深度增强网络的步进式目标跟踪方法,其特征在于:所述的4个尺度变化中高度方向和宽度方向上的尺度独立变化。


4.根据权利要求1所述的基于双深度增强网络的步进式目标跟踪方法,其特征在于:所述的步骤1中,利用公开的物体检测数据集,采用有监督学习方法对TNet进行预训练,目标函数定义为多任务交叉熵损失函数LTNet=λ1×Lcross-entropy(conf,conf~)+(1-λ1)×Lcross-entropy(act,act~),其中Lcross-entropy表示经过one-hot形式的交叉熵损失函数,conf、act分别为网络行为输出层和目标可信度输出层的输出,conf~、act~分别为对应的真值,λ1表示两项损失的权重分配。


5.根据权利要求4所述的基于双深度增强网络的步进式目标跟踪方法,其特征在于:所述的λ1取值范围为[0.55,0.73]。


6.根据权利要求1所述的基于双深度增强网络的步进式目标跟踪方法,其特征在于:所述的步骤1中,固定经过预训练的TNet卷积层的网络参数,在多帧图像序列上对其全连接层进行增强学习训练,在序列的每一帧图像中,利用预训练的TNet定位目标...

【专利技术属性】
技术研发人员:陆永安赵柯王暐张波刘传玲周铁军张华付飞亚李嘉计宇张乐
申请(专利权)人:中国人民解放军六三八七五部队
类型:发明
国别省市:陕西;61

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1