本发明专利技术公开了基于空洞卷积神经网络的坐防护栏行为的识别方法,包括如下步骤:监控系统实时采集加油机附近区域的实时视频,每预设时间截取一张图像,得到实时图像集;使用YOLO V3算法对实时图像集中的行人进行检测,提取图像中的行人,得到行人图像集;通过图像中行人的手臂角度对行人进行类别定义,0代表正常行人,1代表坐在防护栏上的行人,2代表其他异常情况的行人;构建空洞卷积神经网络,使用空洞卷积神经网络对所述行人图像集进行训练,得到训练好的空洞卷积神经网络;利用训练好的空洞卷积神经网络对行人图像集进行判定,若输出为1,则判定行人有坐防护栏行为;若输出为2,则判定无行人坐防护栏行为。
【技术实现步骤摘要】
基于空洞卷积神经网络的坐防护栏行为的识别方法
本专利技术涉及图像
,具体涉及基于空洞卷积神经网络的坐防护栏行为的识别方法。
技术介绍
加油站在建立之初根据安防要求,在加油机区域安装摄像机,通过摄像机录像的方式对加油站的加油机安全作业、安全运营进行考察。其中,加油机旁边的防护栏,经常有顾客会坐在上边休息,这种情况会导致防护栏的防护作用失效,使加油站运营存在很大的安全隐患。现有技术完全采用人为干预的方法,通过摄像头监控是否有人在坐加油机旁边的防护栏,并没有一种客观的非人工且准确的处理方法。这种完成依靠人工的方法,存在以下三种问题:1、人力成本高,需要工作人员进行实时监控。2、出错风险较高,人工检查总会因为偶尔的疲劳或者大意导致出错。3、上级领导基本无法对监控人员进行监督管理。
技术实现思路
为解决现有技术中仅通过人工干预来进行对加油员手势进行监管的问题,本专利技术提供了基于空洞卷积神经网络的坐防护栏行为的识别方法。本专利技术通过下述技术方案实现:基于空洞卷积神经网络的坐防护栏行为的识别方法,包括如下步骤:S1:监控系统实时采集加油机附近区域的实时视频,每预设时间截取一张图像,得到实时图像集;S2:使用YOLOV3算法对实时图像集中的行人进行检测,提取图像中的行人,得到行人图像集;S3:通过图像中行人的手臂角度对行人进行类别定义,0代表正常行人,1代表坐在防护栏上的行人,2代表其他异常情况的行人;S4:构建空洞卷积神经网络,使用空洞卷积神经网络对所述行人图像集进行训练,得到训练好的空洞卷积神经网络;S5:利用训练好的空洞卷积神经网络对行人图像集进行判定,若输出为1,则判定行人有坐防护栏行为;若输出为2,则判定无行人坐防护栏行为。在上述方案的基础上,进一步的有:所述步骤S1中的监控系统包括多个摄像机,摄像机的安装位置与对应该摄像机所监控的加油机水平距离为8~12米,距地面高度为3~5米。在上述方案的基础上,进一步的有:所述步骤S2中提取图像中的行人的具体方法为:对图像中的行人进行截取,生成仅包含行人的图像。在上述方案的基础上,进一步的有:所述步骤S4包括如下子步骤:S41:选择训练数据集和验证数据集;S42:定义空洞卷积核,卷积核尺寸为5*5*n,参数量为3*3*n;S43:搭建空洞卷积神经网络,从空洞卷积神经网络的输入端输入256*256*3,经过5次的卷积和池化操作,从空洞卷积神经网络的输出端输出1*1*3,即时输出数据分别为0、1、2三类数据的概率;S44:定义损失函数Loss,损失函数Loss的计算公式如下:其中,m为网络输出类别数量,为网络全连接层的输出,a、b是网络超参数,y为数据的真实标签;S45:通过损失函数,利用梯度下降法对训练集进行训练,优化空洞卷积神经网络;S46:使用空洞卷积神经网络对验证集进行验证,当验证精度大于95%且不再提升时结束空洞卷积神经网络训练,从而得到训练好的空洞卷积神经网络。在上述方案的基础上,进一步的有:所述步骤S41中的训练数据集包括20000张标记图像,验证数据集包括2000张标记图像。在上述方案的基础上,进一步的有:在所述步骤S41中的训练数据集和验证数据集中,均包含比例为1:2:1的0、1和2三类数据。在上述方案的基础上,进一步的有:在所述步骤S44中的网络超参数a、b取值分别为:a=5,b=1。本专利技术与现有技术相比,具有如下的优点和有益效果:本专利技术克服了前述的现有技术中只能通过人工管理的缺陷,对防护栏风险控制信息监管滞后、无法提供决策的问题,提供一种新的智能监管算法,使防护栏被坐的风险及时察觉,降低管理成本,节约人力成本,有效的提升加油站的安全管理。附图说明结合附图,可以得到对本专利技术实施例的进一步理解,从本专利技术的权利要求和优选实施例的以下描述可以获得本专利技术的其它特征和优点。在不超出本专利技术的范围的情况下,在这种情况下可以按任何期望的方式将图中所示的不同实施例的单独特征加以组合。在附图中:图1为本专利技术的逻辑流程框图;图2为实施例中的高位相机位置示意图;图3为本专利技术的卷积核;图4为空洞卷积神经网络。本专利技术目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。具体实施方式为使本专利技术的目的、技术方案和优点更加清楚明白,下面结合实施例和附图,对本专利技术作进一步的详细说明,本专利技术的示意性实施方式及其说明仅用于解释本专利技术,并不作为对本专利技术的限定。实施例:如图1所示,在本实施例中,基于空洞卷积神经网络的坐防护栏行为的识别方法,包括如下步骤:S1:监控系统实时采集加油机附近区域的实时视频,每预设时间截取一张图像,得到实时图像集;S2:使用YOLOV3算法对实时图像集中的行人进行检测,提取图像中的行人,得到行人图像集;S3:通过图像中行人的手臂角度对行人进行类别定义,0代表正常行人,1代表坐在防护栏上的行人,2代表其他异常情况的行人;S4:构建空洞卷积神经网络,使用空洞卷积神经网络对所述行人图像集进行训练,得到训练好的空洞卷积神经网络;S5:利用训练好的空洞卷积神经网络对行人图像集进行判定,若输出为1,则判定行人有坐防护栏行为;若输出为2,则判定无行人坐防护栏行为。如图2所示,所述步骤S1中的监控系统包括多个摄像机,摄像机的安装位置与对应该摄像机所监控的加油机水平距离为10米,距地面高度为3米。优选的,所述步骤S2中提取图像中的行人的具体方法为:对图像中的行人进行截取,生成仅包含行人的图像。优选的,所述步骤S4包括如下子步骤:S41:选择训练数据集和验证数据集;S42:如图3所示,定义空洞卷积核,卷积核尺寸为5*5*n,参数量为3*3*n;S43:如图4所示,搭建空洞卷积神经网络,从空洞卷积神经网络的输入端输入256*256*3,经过5次的卷积和池化操作,从空洞卷积神经网络的输出端输出1*1*3,即时输出数据分别为0、1、2三类数据的概率;S44:本方法中,我们特别关注类别是1的准确率,而不关心其他两个类相互之间的影响,因此本方法设计和自定义的加权损失函数,使网络侧重学习我们关心的那个类,定义损失函数Loss,损失函数Loss的计算公式如下:其中,m为网络输出类别数量,为网络全连接层的输出,a、b是网络超参数,y为数据的真实标签;S45:通过损失函数,利用梯度下降法对训练集进行训练,优化空洞卷积神经网络;S46:使用空洞卷积神经网络对验证集进行验证,当验证精度大于95%且不再提升时结束空洞卷积神经网络训练,从而得到训练好的空洞卷积神经网络。优选的,所述步骤S41中的训练数据集包括20000张标记图像,验证数据集包括2000张标记图像。优选的,在所述步骤本文档来自技高网...
【技术保护点】
1.基于空洞卷积神经网络的坐防护栏行为的识别方法,其特征在于,包括如下步骤:/nS1:监控系统实时采集加油机附近区域的实时视频,每预设时间截取一张图像,得到实时图像集;/nS2:使用YOLO V3算法对实时图像集中的行人进行检测,提取图像中的行人,得到行人图像集;/nS3:通过图像中行人的手臂角度对行人进行类别定义,0代表正常行人,1代表坐在防护栏上的行人,2代表其他异常情况的行人;/nS4:构建空洞卷积神经网络,使用空洞卷积神经网络对所述行人图像集进行训练,得到训练好的空洞卷积神经网络;/nS5:利用训练好的空洞卷积神经网络对行人图像集进行判定,若输出为1,则判定行人有坐防护栏行为;若输出为2,则判定无行人坐防护栏行为。/n
【技术特征摘要】
1.基于空洞卷积神经网络的坐防护栏行为的识别方法,其特征在于,包括如下步骤:
S1:监控系统实时采集加油机附近区域的实时视频,每预设时间截取一张图像,得到实时图像集;
S2:使用YOLOV3算法对实时图像集中的行人进行检测,提取图像中的行人,得到行人图像集;
S3:通过图像中行人的手臂角度对行人进行类别定义,0代表正常行人,1代表坐在防护栏上的行人,2代表其他异常情况的行人;
S4:构建空洞卷积神经网络,使用空洞卷积神经网络对所述行人图像集进行训练,得到训练好的空洞卷积神经网络;
S5:利用训练好的空洞卷积神经网络对行人图像集进行判定,若输出为1,则判定行人有坐防护栏行为;若输出为2,则判定无行人坐防护栏行为。
2.根据权利要求1所述的基于空洞卷积神经网络的坐防护栏行为的识别方法,其特征在于,所述步骤S1中的监控系统包括多个摄像机,摄像机的安装位置与对应该摄像机所监控的加油机水平距离为8~12米,距地面高度为3~5米。
3.根据权利要求1所述的基于空洞卷积神经网络的坐防护栏行为的识别方法,其特征在于,所述步骤S2中提取图像中的行人的具体方法为:对图像中的行人进行截取,生成仅包含行人的图像。
4.根据权利要求1所述的基于空洞卷积神经网络的坐防护栏行为的识别方法,其特征在于,所述步骤S4包括如下子步骤:
S41:选择训练数据集和验证数据集;...
【专利技术属性】
技术研发人员:陈友明,
申请(专利权)人:四川弘和通讯有限公司,
类型:发明
国别省市:四川;51
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。