一种人物动作幅度的度量方法技术

技术编号:26764028 阅读:23 留言:0更新日期:2020-12-18 23:33
本发明专利技术公开了一种人物动作幅度的度量方法,包括的步骤为解析第一视频和第二视频成为帧序列,提取第一视频的最后一帧和第二视频的第一帧,使用关键点检测算法找出最后一帧和第一帧中相应的关键点,计算出各对相应的关键点的位移均值,将位移均值Dis进行归一化处理得到两帧的动作幅度值;有益效果是:通过本发明专利技术的方法,最终计算出后一帧相对于前一帧的动作幅度,这个动作幅度也是我们插帧位置的度量标准,对动作幅度偏大的两帧进行裁剪,对动作幅度偏小的两帧进行插帧,最后处理后拼接起来的视频的流畅度更好。

【技术实现步骤摘要】
一种人物动作幅度的度量方法
本专利技术涉及动作研究领域,尤其涉及一种人物动作幅度的度量方法。
技术介绍
在视频制作领域,很多长视频是由多个短视频片段拼接组成的,视频是由若干个帧组成的,视频拼接时一般存在拼接处,人物动作不自然的情形,需要进行插帧或裁剪进行平滑处理,以使得整个视频看起来流畅;但是幅度大的动作和幅度小的动作,插帧的方式及难易程度不同,往往很难寻找到合适的插帧或裁剪位置使得所有视频拼接后看起来更为流畅,这是目前亟待解决的问题。
技术实现思路
本专利技术的目的在于提供一种人物动作幅度的度量方法,以解决上述
技术介绍
中存在的问题。为了解决上述技术问题,本专利技术的技术方案为:一种人物动作幅度的度量方法,包括以下步骤,S1:将两个待拼接的第一视频和第二视频解析为帧序列,记第一视频的最后一帧为F1,第二视频的第一帧为F2;S2:使用关键点检测算法,找出F1和F2中相应的关键点;S3:计算出各对相应的关键点的位移差绝对值H1、H2、......、Hn,计算出位移均值Dis=(Hi+H2+......+Hn)/M,其中M为所有关键点的个数。S4:将位移均值Dis进行归一化处理,归一化处理的标准为采取脖子到两手臂的关键点,作为归一化的标准,计算脖子的关键点到两手臂的关键点的均值Z=(Z1+Z2)/2,其中Z1、Z2分别为脖子的关键点到两手臂的关键点的距离,最终计算出归一化结果:P=Dis/Z。作为本专利技术的优选方案,所述步骤S1中将待拼接的第一视频和第二视频解析为帧序列的算法为ffmpeg或opencv。作为本专利技术的优选方案,所述步骤S2中的关键点检测算法为openpose或alphapose。作为本专利技术的优选方案,对提取的F1和F2的人物图像进行去噪处理,消除传输和采集过程中的噪声干扰,之后将去噪后的人物图像按照轮廓、颜色、纹理分割为轮廓图像、颜色图像和纹理图像,所述关键点是在轮廓图像中标记的。采用上述技术方案的有益效果是:通过本专利技术的方法,最终计算出后一帧相对于前一帧的动作幅度,这个动作幅度也是我们插帧位置的度量标准,对动作幅度偏大的两帧进行裁剪,对动作幅度偏小的两帧进行插帧,最后处理后拼接起来的视频的流畅度更好。附图说明图1为本专利技术的流程框图。具体实施方式下面结合附图对本专利技术的具体实施方式作进一步说明。在此需要说明的是,对于这些实施方式的说明用于帮助理解本专利技术,但并不构成对本专利技术的限定。此外,下面所描述的本专利技术各个实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互组合。本实施例提出一种人物动作幅度的度量方法,包括以下步骤,S1:将两个待拼接的第一视频和第二视频解析为帧序列,记第一视频的最后一帧为F1,第二视频的第一帧为F2;s2:使用关键点检测算法,找出F1和F2中相应的关键点;S3:计算出各对相应的关键点的位移差绝对值H1、H2、......、Hn,计算出位移均值Dis=(H1+H2+......+Hn)/M,其中M为所有关键点的个数。S4:将位移均值Dis进行归一化处理,归一化处理的标准为采取脖子到两手臂的关键点,作为归一化的标准,计算脖子的关键点到两手臂的关键点的均值Z=(Z1+Z2)/2,其中Z1、Z2分别为脖子的关键点到两手臂的关键点的距离,最终计算出归一化结果:P=Dis/Z。由于图像存在分辨率不同以及人物位置的远近的不同,所以必须要对S3的结果dis做归一化处理。通过上述四个步骤,最终计算出两帧的动作幅度大小P,P的值越大,表示后一帧相对于前一帧的动作幅度偏大,反之偏小;如果P值偏大,那么就需要对第一视频的最后一帧或第二视频的第一帧进行裁剪或重新选取第一视频或第二视频,再将它们的最后一帧与第一帧进行度量动作幅度,裁剪后再通过此方法进行计算动作幅度值P的大小,直到P的值较小,这样的两个视频拼接起来才会更流畅。在现有技术中,度量两帧的动作幅度一般有SSIM、PSNR等方法,但其无法有效度量人物动作的幅度;本专利技术提出的动作幅度度量方法可有效的度量人物的动作幅度,计算简单、高效,对不同的尺度下的动作有一致的度量结果;本专利技术可应用于对视频的裁剪做指导作用,在视频中的两帧,如果动作幅度小,可通过插帧的方式较好的平滑处理,比如DVF(VideoFrameSynthesisusingDeepVoxelFlow)、superslomo(HighQualityEstimationofMultipleIntermediateFramesforVideoInterpolation)、cyclicgen(DeepVideoFrameInterpolationusingCyclicFrameGeneration)等方式。在视频裁剪时,可通过计算动作幅度大小决定裁剪点,把大幅度动作问题转化为小幅度动作问题,从另一个方式处理大幅度动作的插帧问题。步骤S1中将待拼接的第一视频和第二视频解析为帧序列的算法为ffmpeg或opencv。步骤S2中的关键点检测算法为openpose或alphapose。视频解析为帧的算法ffmpeg或opencv和关键点检测算法openpose或alphapose是现有技术中常使用的算法。对提取的F1和F2的人物图像进行去噪处理,消除传输和采集过程中的噪声干扰,之后将去噪后的人物图像按照轮廓、颜色、纹理分割为轮廓图像、颜色图像和纹理图像,所述关键点是在轮廓图像中标记的。轮廓图像便于显示计算度量两个图像(两帧)的动作幅度大小。以上结合附图对本专利技术的实施方式作了详细说明,但本专利技术不限于所描述的实施方式。对于本领域的技术人员而言,在不脱离本专利技术原理和精神的情况下,对这些实施方式进行多种变化、修改、替换和变型,仍落入本专利技术的保护范围内。本文档来自技高网...

【技术保护点】
1.一种人物动作幅度的度量方法,其特征在于,包括以下步骤,/nS1:将两个待拼接的第一视频和第二视频解析为帧序列,记第一视频的最后一帧为F1,第二视频的第一帧为F2;/nS2:使用关键点检测算法,找出F1和F2中相应的关键点;/nS3:计算出各对相应的关键点的位移差绝对值H1、H2、......、Hn,计算出位移均值Dis=(H1+H2+......+Hn)/M,其中M为所有关键点的个数。/nS4:将位移均值Dis进行归一化处理,归一化处理的标准为采取脖子到两手臂的关键点,作为归一化的标准,计算脖子的关键点到两手臂的关键点的均值Z=(Z1+Z2)/2,其中Z1、Z2分别为脖子的关键点到两手臂的关键点的距离,最终计算出归一化结果:P=Dis/Z。/n

【技术特征摘要】
1.一种人物动作幅度的度量方法,其特征在于,包括以下步骤,
S1:将两个待拼接的第一视频和第二视频解析为帧序列,记第一视频的最后一帧为F1,第二视频的第一帧为F2;
S2:使用关键点检测算法,找出F1和F2中相应的关键点;
S3:计算出各对相应的关键点的位移差绝对值H1、H2、......、Hn,计算出位移均值Dis=(H1+H2+......+Hn)/M,其中M为所有关键点的个数。
S4:将位移均值Dis进行归一化处理,归一化处理的标准为采取脖子到两手臂的关键点,作为归一化的标准,计算脖子的关键点到两手臂的关键点的均值Z=(Z1+Z2)/2,其中Z1、Z2分别为脖子的关键点到两手臂的关键点的距离,最...

【专利技术属性】
技术研发人员:邱明丰李杰
申请(专利权)人:深圳市优乐学科技有限公司
类型:发明
国别省市:广东;44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1