本发明专利技术公开了一种专注力评价和预警方法、系统、电子设备及介质。该方法包括:获取目标对象的线上教学实时视频图像;基于所述视频图像,采用训练好的目标检测模型以及图像分割模型,得到目标区域图像;采用OpenCV轮廓面积函数计算所述目标区域图像的面积;基于所述目标区域的面积以及预先获取到的专注度面积,确定状态信息反馈分数;获取目标对象线上教学的互动反馈分数;基于所述状态信息反馈分数和所述互动反馈分数,确定专注力集中程度;基于所述专注力集中程度对所述目标对象进行预警。本发明专利技术能够实现线上课程学生专注力评价和预警,从而线上完成教学质量评估工作。而线上完成教学质量评估工作。而线上完成教学质量评估工作。
【技术实现步骤摘要】
一种专注力评价和预警方法、系统、电子设备及介质
[0001]本专利技术涉及教育教学管理和人工智能
,特别涉及一种专注力评价和预警方法、系统、电子设备及介质。
技术介绍
[0002]传统的线下教学老师可以通过观察学生听课状态获取注意力集中程度并完成教学质量评估。线上课程通常由于老师无法及时全面的获取所有学生的状态信息,因此无法通过学生专注力评价来完成教学质量评估。同时也没法对注意力不集中的同学进行提醒,导致线上课程教学效果达不到预期要求。
技术实现思路
[0003]本专利技术的目的是提供一种专注力评价和预警方法、系统、电子设备及介质,用以实现线上课程学生专注力评价和预警,从而线上完成教学质量评估工作。
[0004]为实现上述目的,本专利技术提供了如下方案:
[0005]一种专注力评价和预警方法,包括:
[0006]获取目标对象的线上教学实时视频图像;
[0007]基于所述视频图像,采用训练好的目标检测模型以及图像分割模型,得到目标区域图像;所述目标区域图像包括:人脸区域图像、眼睛区域图像以及嘴巴区域图像;
[0008]采用OpenCV轮廓面积函数计算所述目标区域图像的面积;所述目标区域图像的面积包括:人脸区域面积、眼睛区域面积和嘴巴区域面积;
[0009]基于所述目标区域的面积以及预先获取到的专注度面积,确定状态信息反馈分数;所述专注度面积包括专注状态下的人脸区域面积、眼睛区域面积以及嘴巴区域面积;
[0010]获取目标对象线上教学的互动反馈分数;
[0011]基于所述状态信息反馈分数和所述互动反馈分数,确定专注力集中程度;
[0012]基于所述专注力集中程度对所述目标对象进行预警。
[0013]可选地,还包括:
[0014]对所述目标区域图像进行高斯滤波处理。
[0015]可选地,基于所述视频图像,采用训练好的目标检测模型以及图像分割模型,得到目标区域图像,具体包括:
[0016]将所述视频图像输入至训练好的目标检测模型中,检测得到所述视频图像中的目标矩形框;所述目标矩形框包括:人脸矩形框、眼睛矩形框以及嘴巴矩形框;
[0017]将所述目标矩形框输入至训练好的图像分割模型中,得到目标区域图像。
[0018]可选地,所述目标检测模型包括依此连接的主干网络、颈部网络、卷积注意力网络及头部网络。
[0019]可选地,基于所述目标区域的面积以及预先获取到的专注度面积,确定状态信息反馈分数,具体包括:
[0020]根据所述人脸区域面积与专注状态下的人脸区域面积的比值确定第一得分;
[0021]根据所述眼睛区域面积与专注状态下的眼睛区域面积的比值确定第二得分;
[0022]根据所述嘴巴区域面积与专注状态下的嘴巴区域面积的比值确定第三得分;
[0023]将所述第一得分、所述第二得分以及所述第三得分相加,确定状态信息反馈分数。
[0024]本专利技术还提供了一种专注力评价和预警系统,包括:
[0025]视频图像获取模块,用于获取目标对象的线上教学实时视频图像;
[0026]目标区域图像确定模块,用于基于所述视频图像,采用训练好的目标检测模型以及图像分割模型,得到目标区域图像;所述目标区域图像包括:人脸区域图像、眼睛区域图像以及嘴巴区域图像;
[0027]面积计算模块,用于采用OpenCV轮廓面积函数计算所述目标区域图像的面积;所述目标区域图像的面积包括:人脸区域面积、眼睛区域面积和嘴巴区域面积;
[0028]状态信息反馈分数确定模块,用于基于所述目标区域的面积以及预先获取到的专注度面积,确定状态信息反馈分数;所述专注度面积包括专注状态下的人脸区域面积、眼睛区域面积以及嘴巴区域面积;
[0029]互动反馈分数获取模块,用于获取目标对象线上教学的互动反馈分数;
[0030]专注力集中程度确定模块,用于基于所述状态信息反馈分数和所述互动反馈分数,确定专注力集中程度;
[0031]预警模块,用于基于所述专注力集中程度对所述目标对象进行预警。
[0032]本专利技术还提供了一种电子设备,包括存储器及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行上述专注力评价和预警方法。
[0033]本专利技术还提供了一种计算机可读存储介质,其存储有计算机程序,所述计算机程序被处理器执行时实现上述专注力评价和预警方法。
[0034]根据本专利技术提供的具体实施例,本专利技术公开了以下技术效果:
[0035]本专利技术通过通过目标检测模型以及图像分割模型对视频图像进行检测分割,进而对研究对象专注程度进行量化打分并提醒专注度较低的对象,从而能够提高线上教学质量,方便线上教学质量评估。
附图说明
[0036]为了更清楚地说明本专利技术实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
[0037]图1为本专利技术实施例一提供的专注力评价和预警方法的流程图;
[0038]图2为本专利技术实施例二提供的专注力评价和预警方法的完整过程示意图。
具体实施方式
[0039]下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本专利技术一部分实施例,而不是全部的实施例。基于
本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。
[0040]本专利技术的目的是提供一种专注力评价和预警方法、系统、电子设备及介质,用以实现线上课程学生专注力评价和预警,从而线上完成教学质量评估工作。
[0041]为使本专利技术的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本专利技术作进一步详细的说明。
[0042]实施例一
[0043]如图1
‑
2所示,本实施例提供的专注力评价和预警方法,包括以下步骤:
[0044]步骤101:获取目标对象的线上教学实时视频图像。
[0045]步骤102:基于视频图像,采用训练好的目标检测模型以及图像分割模型,得到目标区域图像;目标区域图像包括:人脸区域图像、眼睛区域图像以及嘴巴区域图像。具体包括:将视频图像输入至训练好的目标检测模型中,检测得到视频图像中的目标矩形框;目标矩形框包括:人脸矩形框、眼睛矩形框以及嘴巴矩形框;将目标矩形框输入至训练好的图像分割模型中,得到目标区域图像。
[0046]目标检测模型为预先采用的第一训练样本集,基于卷积注意力机制,对YOLOv5s网络进行训练得到的;第一训练样本集中包括多张第一样本图像及各图像中的矩形框;目标检测模型包括依此连接的主干网络、颈部网络、卷积注意力网络及头部网络。图像分割本文档来自技高网...
【技术保护点】
【技术特征摘要】
1.一种专注力评价和预警方法,其特征在于,包括:获取目标对象的线上教学实时视频图像;基于所述视频图像,采用训练好的目标检测模型以及图像分割模型,得到目标区域图像;所述目标区域图像包括:人脸区域图像、眼睛区域图像以及嘴巴区域图像;采用OpenCV轮廓面积函数计算所述目标区域图像的面积;所述目标区域图像的面积包括:人脸区域面积、眼睛区域面积和嘴巴区域面积;基于所述目标区域的面积以及预先获取到的专注度面积,确定状态信息反馈分数;所述专注度面积包括专注状态下的人脸区域面积、眼睛区域面积以及嘴巴区域面积;获取目标对象线上教学的互动反馈分数;基于所述状态信息反馈分数和所述互动反馈分数,确定专注力集中程度;基于所述专注力集中程度对所述目标对象进行预警。2.根据权利要求1所述的专注力评价和预警方法,其特征在于,还包括:对所述目标区域图像进行高斯滤波处理。3.根据权利要求1所述的专注力评价和预警方法,其特征在于,基于所述视频图像,采用训练好的目标检测模型以及图像分割模型,得到目标区域图像,具体包括:将所述视频图像输入至训练好的目标检测模型中,检测得到所述视频图像中的目标矩形框;所述目标矩形框包括:人脸矩形框、眼睛矩形框以及嘴巴矩形框;将所述目标矩形框输入至训练好的图像分割模型中,得到目标区域图像。4.根据权利要求1所述的专注力评价和预警方法,其特征在于,所述目标检测模型包括依此连接的主干网络、颈部网络、卷积注意力网络及头部网络。5.根据权利要求4所述的专注力评价和预警方法,其特征在于,基于所述目标区域的面积以及预先获取到的专注度面积,确定状态信息反馈分数,具体包括:根据所述人脸区域面积与专注状态下的人脸区域面积的比值确定第...
【专利技术属性】
技术研发人员:杨阳,荆鹏霏,赵晗,柳琳,翟阳,
申请(专利权)人:西安音乐学院,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。