视频处理方法及装置制造方法及图纸

技术编号:15523061 阅读:114 留言:0更新日期:2017-06-04 11:55
本公开涉及视频处理方法及装置,该方法包括:在播放视频过程中,采集观看所述视频的用户的面部图像;在根据采集到的所述面部图像检测到用户表情变化时,识别用户情绪并确定与所述用户情绪相对应的视频播放时间点;将所述用户情绪和所述视频播放时间点上传至服务器,所述用户情绪用于确定针对所述视频的情绪标签。通过检测用户表情变化识别用户情绪并将所述用户情绪和与其对应的视频播放时间点上传至服务器,根据本公开的视频处理方法及装置能够使服务器根据接收到的用户情绪和相应的视频播放时间点进行统计分析,为视频添加情绪标签以便于搜索和推荐,更好的满足用户的需求。

Video processing method and apparatus

The invention discloses a video processing method and device, the method includes: in the video playback process, facial image acquisition watch the video of the user; according to the collected in the facial image to detect user expression, identify user emotion and determine the corresponding user emotional video playback time; the user mood and the video playback time is uploaded to the server, the user is used to determine the mood for video emotion labels. By detecting the expression of user sentiment and user identification the user sentiment and the corresponding video playback time to upload to the server, according to the disclosed video processing method and device can make the server according to the received user emotion and the corresponding video playback time point for statistical analysis, in order to add emotional labels for video search and recommended, to better meet the needs of users.

【技术实现步骤摘要】
视频处理方法及装置
本公开涉及计算机
,尤其涉及一种视频处理方法及装置。
技术介绍
随着终端的普及和网络的迅速发展,观看视频越来越方便。现在用户在观看视频时,只可以通过点赞、评论等方法标记视频的好坏以及表达情绪,用户在选择观看哪个视频时,也只能通过别人的打分和评论来选择。视频播放和用户的互动太过单一,感知到的用户信息太少,导致用户无法快速查找到所需视频,视频提供方也无法准确地根据用户的需求推荐视频。
技术实现思路
有鉴于此,本公开提出了一种视频处理方法,包括:在播放视频过程中,采集观看所述视频的用户的面部图像;在根据采集到的所述面部图像检测到用户表情变化时,识别用户情绪并确定与所述用户情绪相对应的视频播放时间点;将所述用户情绪和所述视频播放时间点上传至服务器,所述用户情绪用于确定针对所述视频的情绪标签。根据本公开的一方面,提供了一种视频处理方法,包括:接收并存储终端发送的用户情绪及所述用户情绪对应的视频播放时间点;对所述用户情绪及其对应的视频播放时间点进行统计获得统计结果;根据所述统计结果确定与所述视频对应的情绪标签。根据本公开的另一方面,提供了一种视频处理装置,包括:采集模块,用于在播放视频过程中,采集观看所述视频的用户的面部图像;识别模块,用于在根据采集到的所述面部图像检测到用户表情变化时,识别用户情绪并确定与所述用户情绪相对应的视频播放时间点;上传模块,用于将所述用户情绪和所述视频播放时间点上传至服务器,所述用户情绪用于确定针对所述视频的情绪标签。根据本公开的另一方面,提供了一种视频处理装置,包括:接收模块,用于接收并存储终端发送的用户情绪及所述用户情绪对应的视频播放时间点;统计模块,用于对所述用户情绪及其对应的视频播放时间点进行统计获得统计结果;情绪标签确定模块,用于根据所述统计结果确定与所述视频对应的情绪标签。根据本公开的另一方面,提供了一种视频处理装置,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为:在播放视频过程中,采集观看所述视频的用户的面部图像;在根据采集到的所述面部图像检测到用户表情变化时,识别用户情绪并确定与所述用户情绪相对应的视频播放时间点;将所述用户情绪和所述视频播放时间点上传至服务器,所述用户情绪用于确定针对所述视频的情绪标签。根据本公开的另一方面,提供了一种视频处理装置,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为:接收并存储终端发送的用户情绪及所述用户情绪对应的视频播放时间点;对所述用户情绪及其对应的视频播放时间点进行统计获得统计结果;根据所述统计结果确定与所述视频对应的情绪标签。根据本公开的另一方面,提供了一种非易失性计算机可读存储介质,当所述存储介质中的指令由终端的处理器执行时,使得终端能够执行一种视频处理方法,所述方法包括:在播放视频过程中,采集观看所述视频的用户的面部图像;在根据采集到的所述面部图像检测到用户表情变化时,识别用户情绪并确定与所述用户情绪相对应的视频播放时间点;将所述用户情绪和所述视频播放时间点上传至服务器,所述用户情绪用于确定针对所述视频的情绪标签。根据本公开的另一方面,提供了一种非易失性计算机可读存储介质,当所述存储介质中的指令由服务器的处理器执行时,使得服务器能够执行一种视频处理方法,所述方法包括:接收并存储终端发送的用户情绪及所述用户情绪对应的视频播放时间点;对所述用户情绪及其对应的视频播放时间点进行统计获得统计结果;根据所述统计结果确定与所述视频对应的情绪标签。通过检测用户表情变化识别用户情绪并将所述用户情绪和与其对应的视频播放时间点上传至服务器,根据本公开上述实施例的视频处理方法及装置能够使服务器根据接收到的用户情绪和相应的视频播放时间点进行统计分析,为视频添加情绪标签以便于搜索和推荐,更好的满足用户的需求。根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。附图说明包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。图1示出根据本公开一实施例的视频处理方法的流程图。图2示出根据本公开一实施例的视频处理方法的示意图。图3示出根据本公开一实施例的步骤S12方法的流程图。图4示出根据本公开一实施例的视频处理方法的流程图。图5示出根据本公开一实施例的视频处理方法的示意图。图6示出根据本公开一实施例的步骤S22方法的流程图。图7示出根据本公开一实施例的视频处理方法的示意图。图8示出根据本公开一实施例的视频处理装置的框图。图9示出根据本公开一实施例的视频处理装置的框图。图10示出根据本公开一实施例的视频处理装置的框图。图11示出根据本公开一实施例的视频处理装置的框图。图12示出根据本公开一实施例的视频处理装置的框图。图13示出根据本公开一实施例的视频处理装置的框图。图14示出根据本公开一实施例的视频处理装置的框图。图15示出根据本公开一实施例的视频处理装置的框图。图16示出根据本公开一实施例的视频处理装置的框图。具体实施方式以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。实施例1图1示出根据本公开一实施例的视频处理方法的流程图,该方法可用于终端,例如,手机、计算机、平板电脑等。图2示出根据本公开一实施例的视频处理方法的示意图。如图1所示,该方法包括:步骤S11,在播放视频过程中,采集观看所述视频的用户的面部图像。在一种可能的实施方式中,如图2所示,可以采用摄像头采集观看视频的用户的面部图像,例如,当用户用手机、平板电脑或者笔记本等终端观看视频时,终端可以控制前置摄像头打开,实时或定时采集图像,并从中获取用户的面部图像。采集到的图像中可能包含一个或多个面部图像,可针对每个面部图像分别进行后续的处理。面部图像的获取可采用相关技术中的任何适当技术,例如肤色区域识别或人脸区域识别等技术,本公开对此不作限制。步骤S12,在根据采集到的所述面部图像检测到用户表情变化时,识别用户情绪并确定与所述用户情绪相对应的视频播放时间点。在一种可能的实施方式中,可以通过将当前采集到的面部图像与之前(例如前一采集时间点)采集的面部图像进行比较来检测用户的表情变化,例如,可在面部图像上标定表示表情的特征点(例如在眼部、嘴部、苹果肌等位置),如果当前采集到的面部图像上的特征点与前一采集时间点采集到的面部图像上的特征点位置之间的差异超过阈值,则可视为检测到表情变化。在另一种可能的实施方式中,也可识别每次采集到的面部图像对应的表情(例如通过将面部图像与预先存储的表情模板进行匹配等),由此来检测表情变化。本公开对根据采集到的面部图像检测用户表情本文档来自技高网...
视频处理方法及装置

【技术保护点】
一种视频处理方法,其特征在于,包括:在播放视频过程中,采集观看所述视频的用户的面部图像;在根据采集到的所述面部图像检测到用户表情变化时,识别用户情绪并确定与所述用户情绪相对应的视频播放时间点;将所述用户情绪和所述视频播放时间点上传至服务器,所述用户情绪用于确定针对所述视频的情绪标签。

【技术特征摘要】
1.一种视频处理方法,其特征在于,包括:在播放视频过程中,采集观看所述视频的用户的面部图像;在根据采集到的所述面部图像检测到用户表情变化时,识别用户情绪并确定与所述用户情绪相对应的视频播放时间点;将所述用户情绪和所述视频播放时间点上传至服务器,所述用户情绪用于确定针对所述视频的情绪标签。2.根据权利要求1所述的视频处理方法,其特征在于,在根据采集到的所述面部图像检测到用户表情变化时,识别用户情绪并确定与所述用户情绪相对应的视频播放时间点,包括:根据采集到的所述面部图像检测用户表情变化;在检测到用户表情变化时,确定变化后的用户表情对应的用户情绪作为所识别的用户情绪;确定检测到用户表情变化的时间点作为所述视频播放时间点。3.一种视频处理方法,其特征在于,包括:接收并存储终端发送的用户情绪及所述用户情绪对应的视频播放时间点;对所述用户情绪及其对应的视频播放时间点进行统计获得统计结果;根据所述统计结果确定与所述视频对应的情绪标签。4.根据权利要求3所述的视频处理方法,其特征在于,所述对所述用户情绪及其对应的视频播放时间点进行统计获得统计结果包括:针对所述视频的至少一个时间段中的每一时间段,统计所述视频播放时间点处于该时间段内的用户情绪,以确定每一时间段对应的第一情绪标签;对所述第一情绪标签进行统计获得所述统计结果。5.根据权利要求4所述的视频处理方法,其特征在于,针对所述视频的至少一个时间段中的每一时间段,统计所述视频播放时间点处于该时间段内的用户情绪,以确定每一时间段对应的第一情绪标签,包括:针对所述视频的至少一个时间段中的每一时间段,统计所述视频播放时间点处于该时间段内的用户情绪的种类及每种用户情绪占该时间段内的全部用户情绪的第一比例;根据所述第一比例确定该时间段对应的第一情绪标签。6.根据权利要求5所述的视频处理方法,其特征在于,根据所述第一比例确定该时间段对应的第一情绪标签,包括:根据第一比例大于第一阈值的用户情绪的种类,确定所述第一情绪标签。7.根据权利要求4所述的视频处理方法,其特征在于,对所述第一情绪标签进行统计获得所述统计结果,包括:针对所述至少一个时间段中的全部或部分时间段,统计各第一情绪标签对应的时间段的时长之和占所述全部或部分时间段的总时长的第二比例,作为所述统计结果。8.根据权利要求7所述的视频处理方法,其特征在于,根据所述统计结果确定与所述视频对应的情绪标签,包括:将所述第二比例超过第二阈值的第一情绪标签作为与所述视频对应的情绪标签。9.一种视频处理装置,其特征在于,包括:采集模块,用于在播放视频过程中,采集观看所述视频的用户的面部图像;识别模块,用于在根据采集到的所述面部图像检测到用户表情变化时,识别用户情绪并确定与所述用户情绪相对应的视频播放时间点;上传模块,用于将所述用户情绪和所述视频播放时间点上传至服务器,...

【专利技术属性】
技术研发人员:刘佳骆蓥雯张芳玲赵晖谈岩嵩苏立潘柏宇王冀
申请(专利权)人:合一网络技术北京有限公司
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1