基于门控卷积神经网络的新闻画面拍摄角度识别方法技术

技术编号:26599313 阅读:21 留言:0更新日期:2020-12-04 21:21
本发明专利技术公开了一种基于门控卷积神经网络的新闻画面拍摄角度识别方法,包括步骤:标注待识别图像的显著性目标区域及拍摄角度分类信息;利用标注后的图像数据集训练构建的显著性目标检测算法模型和图像分类算法模型;基于训练后的目标检测算法模型和图像分类算法模型构建双支路的门控卷积神经网络算法模型,基于所述双支路的门控卷积神经网络算法模型获取识别图像对应的新闻画面拍摄角度等;本发明专利技术能够识别对应的新闻画面是俯视,仰视或者平视拍摄获得,消耗资源少,运算耗时短,能够完成实际工程应用。

【技术实现步骤摘要】
基于门控卷积神经网络的新闻画面拍摄角度识别方法
本专利技术涉及计算机视觉
,更为具体的,涉及一种基于门控卷积神经网络的新闻画面拍摄角度识别方法。
技术介绍
视频作为一种重要的新闻资讯传播手段,相比起通过报纸、电台、广播等作为传播载体的新闻资讯传播方式,往往具有对新闻事件描述更加直观和具现化的特性。新闻视频拍摄时,会根据不同的新闻类型采用不同的拍摄角度进行拍摄。在新闻完成制作后,能够标注出新闻画面的拍摄角度信息,能够提高该新闻素材的重复利用率。传统的拍摄角度识别方法主要基于三维重建的方法,该方法存在消耗资源巨大,耗时长的问题,无法满足实际的应用场景。
技术实现思路
本专利技术的目的在于克服现有技术的不足,提供一种基于门控卷积神经网络的新闻画面拍摄角度识别方法,能够识别出新闻画面的拍摄角度信息,具体地,能够识别对应的新闻画面是俯视,仰视或者平视拍摄获得,且消耗资源少,运算耗时短,能够完成实际工程应用。本专利技术的目的是通过以下方案实现的:一种基于门控卷积神经网络的新闻画面拍摄角度识别方法,包括步骤:标注待识别图像的显著性目标区域及拍摄角度分类信息;利用标注后的图像数据集训练构建的显著性目标检测算法模型和图像分类算法模型;基于训练后的显著性目标检测算法模型和图像分类算法模型构建双支路的门控卷积神经网络算法模型,基于所述双支路的门控卷积神经网络算法模型获取识别图像对应的新闻画面拍摄角度。进一步地,标注待识别图像的显著性目标区域及拍摄角度分类信息中,包括步骤:S101,收集新闻视频,然后将新闻视频解码成图像,收集设定量的图像后,以便进行后续的标注步骤;S102,按照图像显著性目标检测的数据集制作标准,使用步骤S101获得的图像数据集,标注出每张图像中的显著性目标信息;S103,按照图像分类的数据集制作标准,对步骤S102标注的数据集标注其镜头角度类别信息。进一步地,显著性目标检测算法模型基于可读存储介质的构建过程步骤:S201,以101层的卷积残差神经网络为基础,构建一个编解码器的深度卷积神经网络结构,其中编解码器采用对称的特征金字塔,该网络结构作为训练显著性目标检测模型的网络结构,记为Ns;S202,使用批梯度下降法反向传播误差更新Ns模型参数,反复迭代直到模型收敛。进一步地,图像分类算法模型基于可读存储介质的构建过程步骤:S301,以101层的卷积残差神经网络为基础,构建一个图像分类的算法网络结构,该网络结构作为训练图像分类算法的网络结构,记为Nc;S302,采用批梯度下降法反向传播误差更新Nc模型参数,反复迭代直到分类模型收敛。进一步地,双支路的门控卷积神经网络算法模型基于可读存储介质的构建过程步骤:S401,将Ns网络中最后一个卷积层之后的层删除,保留剩余的网络结构,记为Fns;将Nc网络分类层之后的层删除,保留剩余的网络结构,记为Fnc;S402,构建双支路的门控卷积神经网络算法模型DP,该算法模型采用双支路网络对图像进行识别,其中支路一的网络结构使用Fns,另外一个支路使用Fnc,门控模块使用计算机视觉常用的空间通道注意力机制,记为G,在门控模块后增加一个分类模块Cls,其作用是对门控模块的输出特征进一步优化并识别出图像的拍摄角度类别。进一步地,基于所述双支路的门控卷积神经网络算法模型获取识别图像对应的新闻画面拍摄角度,包括步骤:S501,采用批梯度下降法反向传播误差更新DP模型参数,此步骤的训练只更新G及Cls的参数,待模型收敛后,停止训练;S502,继续训练步骤S501更新的模型,此步骤更新DP的所有参数,更新方式采用批梯度下降法。本专利技术的有益效果是:(1)本专利技术针对三维重建方法的缺点,提出了一种门控卷积神经网络的新闻画面拍摄角度识别方法,主要利用目前卷积神经网络在计算机视觉中的图像显著性检测及图像分类技术实现,相较于传统的三维重建方法,不仅能够识别出新闻画面的拍摄角度信息,具体地,能够识别对应的新闻画面是俯视,仰视或者平视拍摄获得,且消耗资源少,运算耗时短,能够完成实际工程应用。附图说明为了更清楚地说明本专利技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。图1为本专利技术的方法步骤流程图;图2为本专利技术构建双支路门控卷积神经网络模型的算法网络结构示意图。具体实施方式本说明书中所有实施例公开的所有特征(包括任何附加权利要求、摘要和附图),或隐含公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合和/或扩展、替换。如图1,2所示,一种基于门控卷积神经网络的新闻画面拍摄角度识别方法,包括步骤:标注待识别图像的显著性目标区域及拍摄角度分类信息;利用标注后的图像数据集训练构建的显著性目标检测算法模型和图像分类算法模型;基于训练后的显著性目标检测算法模型和图像分类算法模型构建双支路的门控卷积神经网络算法模型,基于所述双支路的门控卷积神经网络算法模型获取识别图像对应的新闻画面拍摄角度。进一步地,标注待识别图像的显著性目标区域及拍摄角度分类信息中,包括步骤:S101,收集新闻视频,然后将新闻视频解码成图像,收集设定量的图像后,以便进行后续的标注步骤;S102,按照图像显著性目标检测的数据集制作标准,使用步骤S101获得的图像数据集,标注出每张图像中的显著性目标信息;S103,按照图像分类的数据集制作标准,对步骤S102标注的数据集标注其镜头角度类别信息。进一步地,显著性目标检测算法模型基于可读存储介质的构建过程步骤:S201,以101层的卷积残差神经网络为基础,构建一个编解码器的深度卷积神经网络结构,其中编解码器采用对称的特征金字塔,该网络结构作为训练显著性目标检测模型的网络结构,记为Ns;S202,使用批梯度下降法反向传播误差更新Ns模型参数,反复迭代直到模型收敛。进一步地,图像分类算法模型基于可读存储介质的构建过程步骤:S301,以101层的卷积残差神经网络为基础,构建一个图像分类的算法网络结构,该网络结构作为训练图像分类算法的网络结构,记为Nc;S302,采用批梯度下降法反向传播误差更新Nc模型参数,反复迭代直到分类模型收敛。进一步地,双支路的门控卷积神经网络算法模型基于可读存储介质的构建过程步骤:S401,将Ns网络中最后一个卷积层之后的层删除,保留剩余的网络结构,记为Fns;将Nc网络分类层之后的层删除,保留剩余的网络结构,记为Fnc;S402,构建双支路的门控卷积神经网络算法DP,该算法采用双支路网络对图像进行识别,其中支路一的网络结构使用Fns,另外一个支路使用Fnc,门控本文档来自技高网...

【技术保护点】
1.一种基于门控卷积神经网络的新闻画面拍摄角度识别方法,其特征在于,包括步骤:/n标注待识别图像的显著性目标区域及拍摄角度分类信息;利用标注后的图像数据集训练构建的显著性目标检测算法模型和图像分类算法模型;基于训练后的显著性目标检测算法模型和图像分类算法模型构建双支路的门控卷积神经网络算法模型,基于所述双支路的门控卷积神经网络算法模型获取识别图像对应的新闻画面拍摄角度。/n

【技术特征摘要】
1.一种基于门控卷积神经网络的新闻画面拍摄角度识别方法,其特征在于,包括步骤:
标注待识别图像的显著性目标区域及拍摄角度分类信息;利用标注后的图像数据集训练构建的显著性目标检测算法模型和图像分类算法模型;基于训练后的显著性目标检测算法模型和图像分类算法模型构建双支路的门控卷积神经网络算法模型,基于所述双支路的门控卷积神经网络算法模型获取识别图像对应的新闻画面拍摄角度。


2.根据权利要求1所述的基于门控卷积神经网络的新闻画面拍摄角度识别方法,其特征在于,标注待识别图像的显著性目标区域及拍摄角度分类信息中,包括步骤:
S101,收集新闻视频,然后将新闻视频解码成图像,收集设定量的图像后,以便进行后续的标注步骤;
S102,按照图像显著性目标检测的数据集制作标准,使用步骤S101获得的图像数据集,标注出每张图像中的显著性目标信息;
S103,按照图像分类的数据集制作标准,对步骤S102标注的数据集标注其镜头角度类别信息。


3.根据权利要求1所述的基于门控卷积神经网络的新闻画面拍摄角度识别方法,其特征在于,显著性目标检测算法模型基于可读存储介质的构建过程步骤:
S201,以101层的卷积残差神经网络为基础,构建一个编解码器的深度卷积神经网络结构,其中编解码器采用对称的特征金字塔,该网络结构作为训练显著性目标检测模型的网络结构,记为Ns;
S202,使用批梯度下降法反向传播误差更新Ns模型参数,反复迭代直到模型收敛。


4.根据权利要求1或3任一所述的基于门控卷积神经...

【专利技术属性】
技术研发人员:温序铭李杰宋恩宏颜刚
申请(专利权)人:成都索贝数码科技股份有限公司
类型:发明
国别省市:四川;51

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1