用于捕捉耳朵动画特征的方法、电子设备技术

技术编号:25309590 阅读:24 留言:0更新日期:2020-08-18 22:28
本公开的实施例公开了用于捕捉耳朵动画特征的方法、电子设备。该方法的一具体实施方式包括:获取表演者的面部表情数据;对于面部表情数据中的每个深度图像,生成该深度图像对应于预先确定的耳朵动画模型的过程参数;基于面部表情数据中的每个深度图像的过程参数,生成耳朵动画特征。这种方法利用深度图像,能够直接获取表演者面部的三维特征,同时,利用预先确定的耳朵动画模型确定表演者的面部数据中每个深度图像的过程参数,基于有效的面部区域的深度图像的过程参数,方便用户捕捉有效的耳朵动画特征。

【技术实现步骤摘要】
用于捕捉耳朵动画特征的方法、电子设备
本公开实施例涉及运动捕捉和数据表示领域,具体涉及一种耳朵动画特征捕获和预处理作用的组合方法、电子设备。
技术介绍
随着运动捕捉技术的快速发展,运动捕捉系统在影视、动画制作上被广泛应用。目前,大多数运动捕捉系统通过跟踪粘帖在表演者面部标识点的方式对面部表情进行捕捉,这种捕捉方式对表情具有较大的束缚性,标识点极易脱落,降低了表演者对模型表情的精细化控制,此外,这种捕捉方式依赖于专业的设备来完成,技术复杂度高、成本高。因此,在无任何辅助标识点的条件下,利用运动捕捉技术实现对面部表情的定位以及捕获面部表情特征,已经成为运动捕捉技术中的热点问题。由于人耳的位置不处于正面的人脸轮廓区域内,目前的运动捕捉技术不能够有效捕捉耳朵的动画特征。
技术实现思路
本公开实施例提出了一种用于捕捉耳朵动画特征的方法。第一方面,本公开实施例提供了一种用于捕捉耳朵动画特征的方法,该方法包括:获取表演者的面部表情数据,其中,面部表情数据包括第一数目个深度图像;对于面部表情数据中的每个深度图像,生成该深度图像对应于预先确定的耳朵动画模型的过程参数;基于面部表情数据中的每个深度图像的过程参数,生成耳朵动画特征。在一些实施例中,获取表演者的面部表情数据,包括:启动深度摄像机;接收深度摄像机返回的视频数据,其中,视频数据包括第一数目帧图像;将视频数据转化为深度图像序列,其中,深度图像序列包括第一数目个深度图像;将深度图像序列保存为面部表情数据。在一些实施例中,该方法还包括:基于耳朵动画模型,生成面部关键区域内的面部关键点的初始位置信息,其中,面部关键区域包括左眼区域、右眼区域、嘴巴区域,以及,面部关键点的初始位置信息包括左眼左角的初始位置信息、右眼右角的初始位置信息、左眼睑中点的初始位置信息、右眼睑中点的初始位置信息、左嘴角的初始位置信息、右嘴角的初始位置信息。在一些实施例中,生成该深度图像对应于预先确定的耳朵动画模型的过程参数,包括:基于该深度图像与所述耳朵动画模型,生成表演者的面部关键点的位置信息;将表演者的面部关键点的位置信息保存为所述过程参数。在一些实施例中,基于面部表情数据中的每个深度图像的过程参数,生成耳朵动画特征,包括:基于该深度图像的过程参数,生成该深度图像对应的面部关键点的过程偏移量;保存该深度图像的过程偏移量,得到耳朵动画特征。在一些实施例中,基于该深度图像的过程参数,生成该深度图像对应的面部关键点的过程偏移量,包括:将过程参数中的左眼左角位置信息与左眼左角的初始位置信息相匹配,生成左眼左角的过程偏移量;将过程参数中的右眼右角位置信息与右眼右角的初始位置信息相匹配,生成左眼左角的过程偏移量;将过程参数中的左眼睑中点位置信息与左眼睑中点的初始位置信息相匹配,生成左眼睑中点的过程偏移量;将过程参数中的右眼睑中点位置信息与右眼睑中点的初始位置信息相匹配,生成右眼睑中点的过程偏移量;将过程参数中的左嘴角位置信息与左嘴角的初始位置信息相匹配,生成左嘴角的过程偏移量;将过程参数中的右嘴角中点位置信息与右嘴角的初始位置信息相匹配,生成右嘴角的过程偏移量。在一些实施例中,保存该深度图像的过程偏移量,得到耳朵动画特征,包括:保存该深度图像的过程偏移量,得到面部表情数据中的面部关键点的偏移数据;根据面部表情数据中的面部关键点的偏移数据,确定耳朵的运动情况;基于耳朵的运动情况,生成耳朵动画特征。第二方面,本公开实施例提供了一种终端设备,该终端设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如第一方面中任一实现方式描述的方法。第三方面,本公开实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如第一方面中任一实现方式描述的方法。本公开实施例提供一种用于捕捉耳朵动画特征的方法,获取表演者的面部表情数据;对于面部表情数据中的每个深度图像,生成该深度图像对应于预先确定的耳朵动画模型的过程参数;基于面部表情数据中的每个深度图像的过程参数,生成耳朵动画特征。本公开的上述各个实施例中的一个实施例具有如下有益效果:使用深度摄像机获取面部数据,无需对面部数据进行三维重建可以直接得到包含表演者面部区域三维特征的深度信息。利用预先确定的耳朵动画模型,对面部数据中的每幅深度图像生成面部关键区域内的面部关键点的过程参数。基于面部关键点的过程参数,生成耳朵的动画特征。本公开的实施例利用深度图像,能够直接获取表演者面部的三维特征,同时,利用预先确定的耳朵动画模型确定表演者的面部数据中每个深度图像的过程参数,基于有效的面部区域的深度图像的过程参数,方便用户捕捉有效的耳朵动画特征。附图说明通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:图1是本公开的一些实施例可以应用于其中的示例性系统的架构图;图2是根据本公开的用于捕捉耳朵动画特征的方法的一些实施例的流程图;图3是根据本公开的一些实施例的用于捕捉耳朵动画特征的方法的一个应用场景的示意图;图4是适于用来实现本公开的一些实施例的电子设备的结构示意图。具体实施方式下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。另外还需要说明的是,为了便于描述,附图中仅示出了与有关专利技术相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。下面将参考附图并结合实施例来详细说明本公开。图1示出了可以应用本公开的用于捕捉耳朵动画特征的方法的实施例的示例性系统架构100。如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如数字签名应用、特征提取应用、运动捕捉应用等。终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏的各种终端设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、本文档来自技高网...

【技术保护点】
1.一种用于捕捉耳朵动画特征的方法,包括:/n获取表演者的面部表情数据,其中,所述面部表情数据包括第一数目个深度图像;/n对于所述面部表情数据中的每个深度图像,生成该深度图像对应于预先确定的耳朵动画模型的过程参数;/n基于所述面部表情数据中的每个深度图像的过程参数,生成耳朵动画特征。/n

【技术特征摘要】
1.一种用于捕捉耳朵动画特征的方法,包括:
获取表演者的面部表情数据,其中,所述面部表情数据包括第一数目个深度图像;
对于所述面部表情数据中的每个深度图像,生成该深度图像对应于预先确定的耳朵动画模型的过程参数;
基于所述面部表情数据中的每个深度图像的过程参数,生成耳朵动画特征。


2.根据权利要求1所述的方法,其中,所述获取表演者的面部表情数据,包括:
启动深度摄像机;
接收所述深度摄像机返回的视频数据,其中,所述视频数据包括第一数目帧图像;
将所述视频数据转化为深度图像序列,其中,所述深度图像序列包括第一数目个深度图像;
将所述深度图像序列保存为所述面部表情数据。


3.根据权利要求1所述的方法,其中,所述方法还包括:
基于所述耳朵动画模型和所述面部表情数据中的第一个深度图像,生成面部关键区域内的面部关键点的初始位置信息,其中,所述面部关键区域包括左眼区域、右眼区域、嘴巴区域,以及,所述面部关键点的初始位置信息包括左眼左角的初始位置信息、右眼右角的初始位置信息、左眼睑中点的初始位置信息、右眼睑中点的初始位置信息、左嘴角的初始位置信息、右嘴角的初始位置信息;以及
利用所述耳朵动画模型得到所述第一个深度图像的初始模型关键点集合,生成第一个深度图像的脸部及五官轮廓;
对所述脸部及五官轮廓进行对齐归一化处理;
对于所述初始模型关键点集合中的每个初始模型关键点,沿所述脸部及五官轮廓的法线方向搜索以及完成灰度匹配,得到所述第一个深度图像的模型关键点集合;
将所述第一个深度图像的模型关键点集合中每个关键点的坐标确定为所述面部关键区域内的面部关键点的初始位置信息。


4.根据权利要求3所述的方法,其中,所述生成该深度图像对应于预先确定的耳朵动画模型的过程参数,包括:
基于该深度图像与所述耳朵动画模型,生成所述表演者的面部关键点的位置信息;
将所述表演者的面部关键点的位置信息保存为所述过...

【专利技术属性】
技术研发人员:生金龙
申请(专利权)人:北京攸乐科技有限公司
类型:发明
国别省市:北京;11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1