本申请提供基于机器视觉开小差识别方法、网络设备及存储介质,其中方法,包括获取场景视频流;通过人形检测模型获取视频流中的人形区域;通过人脸检测模型从人形区域获取人脸区域;通过人脸关键点检测模型对获取的人脸区域进行检测,获取人员的头部关键点信息;基于人员的头部关键点信息计算人脸中心坐标、左右眼中心坐标、鼻尖坐标以及嘴巴中心坐标;基于人脸中心坐标、左右眼中心坐标及嘴巴中心坐标、鼻尖坐标判断头部姿态;基于头部姿态判断人员是否开小差。本申请实施例基于智能的机器视觉技术,实现自动化、智能化的开小差行为识别,减轻管理工作负担。轻管理工作负担。轻管理工作负担。
【技术实现步骤摘要】
基于机器视觉开小差识别方法、网络设备及存储介质
[0001]本说明书涉及通信
,尤其涉及基于机器视觉开小差识别方法、网络设备及存储介质。
技术介绍
[0002]在课堂或会议场景下有人员开小差是常有的问题,为例提高效率需要及时提醒。传统的管理方法主要依赖于相关人员的经验和直觉进行判断,但这种方法往往存在盲区和不足,无法有效地识别开小差行为,因此需要一种更加高效、准确的方法来实现开小差的识别。
[0003]基于AI机器视觉的开小差识别方案通过利用计算机视觉技术和深度学习算法,可以实现对现场人员开小差行为的自动识别和分析。具体而言,该方案通过对人员的行为进行视频监控和分析,利用计算机视觉技术和深度学习算法来判断人员是否开小差,从而及时提醒在场人员,实现有效管理。
技术实现思路
[0004]为克服相关技术中存在的问题,本说明书提供了基于机器视觉开小差识别方法、网络设备及存储介质。
[0005]本申请说明书实施例第一方面提供了基于机器视觉开小差识别方法,包括:
[0006]获取场景视频流;
[0007]通过人形检测模型获取视频流中的人形区域;
[0008]通过人脸检测模型从人形区域获取人脸区域;
[0009]通过人脸关键点检测模型对获取的人脸区域进行检测,获取人员的头部关键点信息;
[0010]基于人员的头部关键点信息计算人脸中心坐标、左右眼中心坐标、鼻尖坐标以及嘴巴中心坐标;
[0011]基于人脸中心坐标、左右眼中心坐标及嘴巴中心坐标、鼻尖坐标判断头部姿态;
[0012]基于头部姿态判断人员是否开小差。
[0013]优选的,基于头部姿态判断人员开小差包括:头部姿态水平方向向左或向右偏转;和/或头部姿态垂直方向向上或向下偏转;和/或人员眼睛开闭状态。
[0014]进一步地,判断人员开小差还包括:设置视频帧数阈值,以及设置开小差动作的头部姿态频率;当视频帧数超过阈值,且属于开小差动作的头部姿态频率超过设定频次,则判断人员开小差。
[0015]进一步地,基于人员的头部关键点信息计算人脸中心坐标、左右眼中心坐标、鼻尖坐标以及嘴巴中心坐标方法包括:
[0016]鼻尖坐标n(x
n
,y
n
)可直接从头部关键点信息的特定点位置获取;
[0017]人脸中心坐标f(x
f
,y
f
)通过计算n个人脸关键点信息分别在x轴和y轴的平均值获
取;
[0018]左眼中心坐标l(x
l
,y
l
)通过计算l个左眼关键点信息分别在x轴和y轴的平均值获取;
[0019]右眼中心坐标r(x
r
,y
r
)通过计算r个右眼关键点信息分别在x轴和y轴的平均值获取;
[0020]左右眼中心坐标e(x
e
,y
e
)通过计算左眼中心坐标与右眼中心坐标分别在x轴和y轴的平均值获取;
[0021]嘴巴中心坐标m(x
m
,y
m
)通过计算m个嘴巴关键点信息分别在x轴和y轴的平均值获取。
[0022]进一步地,基于人脸中心坐标、左右眼中心坐标判断头部水平方向偏转状态包括:
[0023]计算人员头部在水平方向偏转角度:
[0024][0025]假设人员头部水平方向发生偏转的阈值为θ1,则
[0026]若|α|>θ1,且α>0,判断头部向左偏转;α<0,判断头部向右偏转;
[0027]若|α|<θ1,则判断人员头部在水平方向处于正常状态。
[0028]进一步地,基于鼻尖坐标,左右眼中心坐标以及人脸中心坐标判断头部垂直方向偏转状态包括:
[0029]计算人员头部在垂直方向偏转角度:
[0030][0031]假设人员头部垂直方向发生偏转的阈值为θ2,则
[0032]若|β|>θ2,且β>0,判断头部向上偏转;β<0,判断头部向下偏转;
[0033]若|β|<θ2,则判断人员头部在垂直方向处于正常状态。
[0034]优选的,在获取到人脸区域信息后还包括:
[0035]通过人脸分类算法识别人员身份;
[0036]将人员身份信息与关联的人脸区域信息以及人形区域信息进行聚类作为人员队列;
[0037]将人员队列信息与预设的场景内的人员座位信息进行比对,确认缺席人员信息。
[0038]优选的,在获取到人脸关键点信息后还包括:
[0039]获取人脸关键点信息中的眼角信息、瞳孔信息、眉毛信息;
[0040]将获取的眼角信息、瞳孔信息以及眉毛信息输入到经过眼睛开闭状态样本训练过的二分类模型判断眼睛的开闭状态。
[0041]优选的,还包括:
[0042]通过人体关键点检测模型对获取的人体区域进行检测获取人员的人体关键点信息;
[0043]基于预置的人体关键点信息所构成的人体的姿态预先做目标分类;
[0044]通过目标分类的人体关键点信息做人体姿态分类检测模型训练;
[0045]将当前视频流获取的人体关键点信息进行坐标归一化;
[0046]将进行坐标归一化处理的人体关键点信息输入经过训练的人体姿态检测模型进行检测,判断当前人员的人体姿态。
[0047]进一步地,对人体的姿态进行目标分类的人体关键点信息进行不同分类标签;
[0048]用带有标签的人体关键点信息进行人体姿态分类检测模型训练;
[0049]对人体姿态分类检测模型设定阈值;
[0050]在对当前获取的人体关键点信息通过人体姿态检测模型检测时,若结果分数小于阈值则放弃该检测结果。
[0051]本申请第二方面提供了网络设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时执行上述基于机器视觉开小差识别方法。
[0052]本申请第三方面提供了存储介质,其上存储有计算机程序指令,程序指令被处理器执行时用于实现上述基于机器视觉开小差识别方法。
[0053]本说明书的实施例提供的技术方案可以包括以下有益效果:
[0054]本说明书实施例基于智能的机器视觉技术,实现自动化、智能化的开小差行为识别,减轻管理工作负担。
[0055]应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本说明书。
附图说明
[0056]此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本说明书的实施例,并与说明书一起用于解释本说明书的原理。
[0057]图1是本申请实施例一方法流程示意图;
[0058]图2是本申请判断是否有人员缺席流程示意图;
[0059]图3是本申请判断人体姿态流程示意图;
[0060]图4是人脸关键点位置示意图;
[0061]图5是本申请网络设本文档来自技高网...
【技术保护点】
【技术特征摘要】
1.基于机器视觉开小差识别方法,其特征在于,包括:获取场景视频流;通过人形检测模型获取视频流中的人形区域;通过人脸检测模型从人形区域获取人脸区域;通过人脸关键点检测模型对获取的人脸区域进行检测,获取人员的头部关键点信息;基于人员的头部关键点信息计算人脸中心坐标、左右眼中心坐标、鼻尖坐标以及嘴巴中心坐标;基于人脸中心坐标、左右眼中心坐标及嘴巴中心坐标、鼻尖坐标判断头部姿态;基于头部姿态判断人员是否开小差。2.根据权利要求1所述的基于机器视觉开小差识别方法,其特征在于,基于头部姿态判断人员开小差包括:头部姿态水平方向向左或向右偏转;和/或头部姿态垂直方向向上或向下偏转;和/或人员眼睛开闭状态。3.根据权利要求1所述的基于机器视觉开小差识别方法,其特征在于,判断人员开小差还包括:设置视频帧数阈值,以及设置开小差动作的头部姿态频率;当视频帧数超过阈值,且属于开小差动作的头部姿态频率超过设定频次,则判断人员开小差。4.根据权利要求1所述的基于机器视觉开小差识别方法,其特征在于,所述基于人员的头部关键点信息计算人脸中心坐标、左右眼中心坐标、鼻尖坐标以及嘴巴中心坐标方法包括:鼻尖坐标n(x
n
,y
n
)可直接从头部关键点信息的特定点位置获取;人脸中心坐标f(x
f
,y
f
)通过计算n个人脸关键点信息分别在x轴和y轴的平均值获取;左眼中心坐标l(x
l
,y
l
)通过计算l个左眼关键点信息分别在x轴和y轴的平均值获取;右眼中心坐标r(x
r
,y
r
)通过计算r个右眼关键点信息分别在x轴和y轴的平均值获取;左右眼中心坐标e(x
e
,y
e
)通过计算左眼中心坐标与右眼中心坐标分别在x轴和y轴的平均值获取;嘴巴中心坐标m(x
m
,y
m
)通过计算m个嘴巴关键点信息分别在x轴和y轴的平均值获取。5.根据权利要求4所述的基于机器视觉开小差识别方法,其特征在于,基于人脸中心坐标、左右眼中心坐标判断头部水平方向偏转状态包括:计算人员头部在水平方向偏转角度:假设人员头部水平方向发生偏转的阈值为θ1,则若|α|>θ1,且α>0,判断头部向左偏转;...
【专利技术属性】
技术研发人员:吴杰,
申请(专利权)人:新华三智能终端有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。