一种活体检测方法、装置、设备及介质制造方法及图纸

技术编号:34338169 阅读:14 留言:0更新日期:2022-07-31 03:23
本说明书实施例公开了一种活体检测方法、装置、设备及介质,方案包括:获取第一信息采集设备采集的第一信息;所述第一信息为与情绪引导视频的播放过程相关的信息;所述第一信息包含用户的第一生物特征;获取第二信息采集设备采集的第二信息;所述第二信息为与所述情绪引导视频的播放过程相关的信息;所述第二信息包含用户的第二生物特征;根据多模态情绪识别算法,基于所述第一信息和所述第二信息,确定所述用户的测定情绪类型;判断所述测定情绪类型与所述情绪引导视频对应的设定情绪类型是否一致;若所述测定情绪类型与所述情绪引导视频对应的设定情绪类型一致,则确定所述用户为活体对象。体对象。体对象。

A living body detection method, device, equipment and medium

【技术实现步骤摘要】
一种活体检测方法、装置、设备及介质


[0001]本申请涉及计算机
,尤其涉及一种活体检测方法、装置、设备及介质。

技术介绍

[0002]随着计算机技术的发展,人脸识别技术在近年来得到了广泛的应用。目前大多数人脸识别技术是基于采集的人脸图像进行识别的,攻击者使用照片、屏幕展示、面具等手段可能会达到冒用身份的目的,存在“活体攻击”的风险。
[0003]因此,如何实现有效的活体检测是亟待解决的技术问题。

技术实现思路

[0004]本说明书实施例提供一种活体检测方法、装置、设备及介质,以实现有效地活体检测。
[0005]为解决上述技术问题,本说明书实施例是这样实现的:
[0006]本说明书实施例提供的一种活体检测方法,包括:
[0007]获取第一信息采集设备采集的第一信息;所述第一信息为与情绪引导视频的播放过程相关的信息;所述第一信息包含用户的第一生物特征;
[0008]获取第二信息采集设备采集的第二信息;所述第二信息为与所述情绪引导视频的播放过程相关的信息;所述第二信息包含用户的第二生物特征;
[0009]根据多模态情绪识别算法,基于所述第一信息和所述第二信息,确定所述用户的测定情绪类型;
[0010]判断所述测定情绪类型与所述情绪引导视频对应的设定情绪类型是否一致;
[0011]若所述测定情绪类型与所述情绪引导视频对应的设定情绪类型一致,则确定所述用户为活体对象。
[0012]本说明书实施例提供的一种活体检测装置,包括:
>[0013]第一获取模块,用于获取第一信息采集设备采集的第一信息;所述第一信息为与情绪引导视频的播放过程相关的信息;所述第一信息包含用户的第一生物特征;
[0014]第二获取模块,用于获取第二信息采集设备采集的第二信息;所述第二信息为与所述情绪引导视频的播放过程相关的信息;所述第二信息包含用户的第二生物特征;
[0015]第一确定模块,用于根据多模态情绪识别算法,基于所述第一信息和所述第二信息,确定所述用户的测定情绪类型;
[0016]判断模块,用于判断所述测定情绪类型与所述情绪引导视频对应的设定情绪类型是否一致;
[0017]第二确定模块,用于若所述测定情绪类型与所述情绪引导视频对应的设定情绪类型一致,则确定所述用户为活体对象。
[0018]本说明书实施例提供的一种活体检测设备,包括:
[0019]至少一个处理器;以及,
[0020]与所述至少一个处理器通信连接的存储器;其中,
[0021]所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
[0022]获取第一信息采集设备采集的第一信息;所述第一信息为与情绪引导视频的播放过程相关的信息;所述第一信息包含用户的第一生物特征;
[0023]获取第二信息采集设备采集的第二信息;所述第二信息为与所述情绪引导视频的播放过程相关的信息;所述第二信息包含用户的第二生物特征;
[0024]根据多模态情绪识别算法,基于所述第一信息和所述第二信息,确定所述用户的测定情绪类型;
[0025]判断所述测定情绪类型与所述情绪引导视频对应的设定情绪类型是否一致;
[0026]若所述测定情绪类型与所述情绪引导视频对应的设定情绪类型一致,则确定所述用户为活体对象。
[0027]本说明书实施例提供的一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现一种活体检测方法。
[0028]本说明书一个实施例实现了能够达到以下有益效果:
[0029]通过第一信息采集设备采集第一信息,第二信息采集设备采集第二信息,并基于第一信息中包含的第一生物特征和第二信息中包含的第二生物特征信息,确定用户的情绪类型,通过判断与情绪引导视频中设定的情绪类型是否一致判断用户是否为活体对象。本说明书实施例中的活体检测方法,可以有效地实现活体检测。
[0030]进一步地说明书实施例中的活体检测方法可以基于情绪类型对用户进行活体检测,还可以对高清屏攻击、高精度头模攻击等攻击具有良好的防范作用。
附图说明
[0031]为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
[0032]图1为本说明书实施例中一种活体检测系统的架构图;
[0033]图2为本说明书实施例提供的一种活体检测方法的流程示意图;
[0034]图3为本说明书实施例中提供的一种活体检测方法的泳道图;
[0035]图4为本说明书实施例提供的一种活体检测装置的结构示意图;
[0036]图5为本说明书实施例提供的一种活体检测设备的结构示意图。
具体实施方式
[0037]为使本说明书一个或多个实施例的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书一个或多个实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书的一部分实施例,而不是全部的实施例。基于本说明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书一个或多个实施例保护的范围。
[0038]以下结合附图,详细说明本说明书各实施例提供的技术方案。
[0039]目前对人脸识别系统而言,安全风险最大的是“活体攻击”,即攻击者使用照片、屏幕展示、面具等手段达到冒用身份的目的。由于目前大多数活体检测系统采用单帧图像作为活体评判的输入。例如:静默活体检测方法,采用单张图像进行活体检测,该方法可以对一些简单的活体攻击例如手机屏幕、低分辨率屏幕和打印照片等有较好的拦截,但对于高清屏幕和高精度头模没有拦截作用。又如,基于眨眼、摇头等动作的活体检测方法,此类方法基于简单的交互动作来进行活体检测。但是对于眨眼、摇头等简单动作,录制的高清视频可以简单绕过,这类方法对于高清视频的防护作用非常有限。
[0040]为了解决现有技术中的缺陷,本方案给出了以下实施例:
[0041]图1为本说明书实施例中一种活体检测系统的架构图。如图1所示,该架构中包括终端设备10和服务器20,终端设备10可以与服务器20进行通信,终端设备10可以用于采集与情绪引导视频相关的用户的多种生物特征信息,并将用户的多种生物特征信息发送至服务器20。终端设备10可以为手机、平板电脑、计算机等,终端设备10还可以为自助终端,例如:自助取款机、业务查询机等。服务器20可以基于用户的多种生物特征信息,得到用户的测定情绪类型结果,在与情绪引导视频中设定的情绪类型进行比对后,判定终端设备10对应的用户是否为活体对象。
[0042]接下来,将针对说明书实施例提供的一种活体检本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种活体检测方法,包括:获取第一信息采集设备采集的第一信息;所述第一信息为与情绪引导视频的播放过程相关的信息;所述第一信息包含用户的第一生物特征;获取第二信息采集设备采集的第二信息;所述第二信息为与所述情绪引导视频的播放过程相关的信息;所述第二信息包含用户的第二生物特征;根据多模态情绪识别算法,基于所述第一信息和所述第二信息,确定所述用户的测定情绪类型;判断所述测定情绪类型与所述情绪引导视频对应的设定情绪类型是否一致;若所述测定情绪类型与所述情绪引导视频对应的设定情绪类型一致,则确定所述用户为活体对象。2.根据权利要求1所述的方法,所述第一信息为至少包含用户面部的局部图像的视频信息;所述第一生物特征信息为至少包含所述用户的局部面部特征的信息;所述第二信息为包含用户肢体图像的视频信息;所述第二生物特征信息为包含所述用户的肢体特征的信息。3.根据权利要求1所述的方法,所述第一信息为至少包含用户面部的局部图像的视频信息;所述第一生物特征信息为至少包含所述用户的局部面部特征的信息;所述第二信息为用户的音频信息;所述第二生物特征信息为包含所述用户的声音特征的信息;所述音频信息包括在所述情绪引导视频播放过程中或者播放结束后,对用户的声音采集得到的音频。4.根据权利要求1所述的方法,所述第一信息为包含用户肢体图像的视频信息;所述第一生物特征信息为包含所述用户的肢体特征的信息;所述第二信息为音频信息;所述第二生物特征信息为包含所述用户的声音特征的信息;所述音频信息包括在所述情绪引导视频播放过程中或者播放结束后,对用户的声音采集得到的音频。5.根据权利要求1所述的方法,所述方法还包括:获取第三信息采集设备采集的第三信息;所述第三信息为与所述情绪引导视频的播放过程相关的信息;所述第三信息包含用户的第三生物特征;所述根据多模态情绪识别算法,基于所述第一信息和所述第二信息,确定所述用户的测定情绪类型,具体包括:所述根据多模态情绪识别算法,基于所述第一信息、所述第二信息和所述第三信息,确定所述用户的测定情绪类型。6.根据权利要求5所述的方法,所述第一信息为至少包含用户面部的局部图像的视频信息;所述第一生物特征信息为至少包含所述用户的局部面部特征的信息;所述第二信息为包含用户肢体图像的视频信息;所述第二生物特征信息为包含所述用户的肢体特征的信息;所述第三信息为用户的音频信息;所述第三生物特征信息为包含所述用户的声音特征的信息;所述音频信息包括在所述情绪引导视频播放过程中或者播放结束后,对用户的声音采集得到的音频。7.根据权利要求3或权利要求4或权利要求6,所述音频信息包括用户针对显示的预设
文本的音频。8.根据权利要求2或权利要求4或权利要求6,所述用户肢体包括用户的手指、手掌或胳膊中的部位。9.根据权利要求2或权利要求4或权利要求6,所述方法包括:基于包含用户肢体图像的视频信息,确定用户的心功能信息。10.根据权利要求1所述的方法,所述第一信息为至少包含用户面部的局部图像的视频信息,所述方法还包括:发送启动补光装置的指令,以便启动补光装置...

【专利技术属性】
技术研发人员:李宇明丁菁汀李亮
申请(专利权)人:支付宝杭州信息技术有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1