System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术涉及通信,特别是涉及一种线上培训视频录制方法及系统。
技术介绍
1、随着互联网技术的不断发展和普及,线上培训作为一种新兴的学习方式,逐渐受到广大用户的认可和接受,通常在培训过程中会对培训内容进行录制,那么培训视频录制的清晰度直接关系到后期的回顾复习。而目前通常采用屏幕录制软件对线上培训过程进行录制,该方法虽可将培训内容完整录制,但无法提高录制视频画面的清晰度,且无法突出培训过程的重点内容。
技术实现思路
1、本专利技术提供一种线上培训视频录制方法及系统,解决现有的视频录制方法无法提高视频录制画面的清晰度,也无法突出培训过程的重点内容的问题。
2、为解决上述技术问题,本专利技术第一方面提供一种线上培训视频录制方法,包括:
3、获取对目标主体的录制视频图像,并对所述录制视频图像中的重点内容添加时间戳;
4、对所述录制视频图像内每一视频帧中的所述目标主体进行识别,得到第一视频画面;
5、通过预设神经网络模型提取所述第一视频画面的特征,并基于所述特征对所述录制视频图像进行去噪处理,得到高清录制视频图像画面;
6、将所述高清录制视频图像画面按照时间顺序组合,得到高清录制视频;
7、根据所述时间戳在所述高清录制视频内插入分屏节点及其对应的副画面,得到视频录制结果,所述副画面包括所述重点内容对应的辅助内容。
8、作为其中一种优选方案,所述预设神经网络模型包括深度残差网络层、第一卷积神经网络层、循环神经网
9、作为其中一种优选方案,通过预设神经网络模型提取所述第一视频画面的特征,并基于所述特征对所述录制视频图像进行去噪处理,得到高清录制视频图像画面,包括:
10、通过所述深度残差网络层提取所述第一视频画面的图像特征,并通过所述第一卷积神经网络层提取所述第一视频画面的空间特征;
11、通过所述循环神经网络层对当前视频帧中第一视频画面的空间特征和前一视频帧中第一视频画面的空间特征进行处理,得到当前视频帧中第一视频画面的时间特征;
12、通过所述第二卷积神经网络层提取所述第一视频画面的状态特征,并根据所述状态特征和所述图像特征计算所述第一视频画面的贡献值;
13、将对应视频帧的所述时间特征和所述空间特征进行融合,得到时空特征,并基于所述时空特征,通过所述第三卷积神经网络层对所述第一视频画面进行卷积处理,得到卷积矩阵;
14、通过所述第四卷积神经网络层对所述卷积矩阵进行残差处理,得到去噪处理后的第一视频画面,并根据所述贡献值将所述去噪处理后的第一视频画面进行组合,得到高清录制视频图像画面。
15、作为其中一种优选方案,所述时间戳包括开始时间和结束时间;其中,
16、所述根据所述时间戳在所述高清录制视频内插入分屏节点及其对应的副画面,得到视频录制结果,包括:
17、获取副画面及其对应的副视频帧,并通过所述时间戳设置所述副画面的时间长度;
18、基于所述时间戳,从所述高清录制视频中提取视频帧并作为主画面中的主视频帧;
19、在所述时间戳对应的帧上,创建新的视频帧并添加所述主视频帧和所述副视频帧,得到新融合视频帧;
20、在所述开始时间设置分屏节点,并根据所述分屏节点按所述时间戳插入所述新融合视频帧,以替换原有的视频帧,得到视频录制结果。
21、作为其中一种优选方案,在所述时间戳对应的帧上,创建新的视频帧并添加所述主视频帧和所述副视频帧,得到新融合视频帧,包括:
22、在所述时间戳对应的帧上,创建一个新视频帧,并对所述新视频帧进行区域划分,得到第一区域和第二区域;
23、将所述主视频帧添加至所述第一区域,并将所述副视频帧添加至所述第二区域,得到新融合视频帧。
24、作为其中一种优选方案,根据所述时间戳在所述高清录制视频内插入分屏节点及其对应的副画面,得到视频录制结果之后,还包括:
25、对所述视频录制结果进行浓缩处理,得到浓缩视频。
26、作为其中一种优选方案,对所述视频录制结果进行浓缩处理,得到浓缩视频,包括:
27、对所述视频录制结果中的每一高清录制视频帧进行识别,得到各个所述高清录制视频帧所对应的第二视频画面;
28、从所述第二视频画面中选取符合预设条件的目标视频画面,得到目标画面列表;
29、根据目标画面列表对所述视频录制结果进行裁剪处理,得到若干个视频片段并组合,得到浓缩视频。
30、作为其中一种优选方案,从所述第二视频画面中选取符合预设条件的目标视频画面,得到目标画面列表,包括:
31、计算所述第二视频画面的特征相似度,遍历每一高清录制视频帧,并将位于当前高清录制视频帧的第二视频画面的特征相似度与位于相邻高清录制视频帧的第二视频画面的特征相似度进行对比;
32、将对比所得结果达到预设对比条件且出现时长达到预设时长阈值的两个第二视频画面作为同一个目标视频画面,并将像素不小于预设像素阈值的所述目标视频画面进行组合,得到目标画面列表。
33、作为其中一种优选方案,从所述第二视频画面中选取符合预设条件的目标视频画面,得到目标画面列表,包括:
34、提取所述第二视频画面的颜色数据,并去除所述颜色数据中的底色数据,得到内容颜色数据;
35、若所述内容颜色数据属于预先构建的颜色数据库,且所述内容颜色数据对应的第二视频画面的出现时长达到预设时长阈值,则将该视频画面作为目标视频画面;
36、将所述目标视频画面进行组合,得到目标视频画面列表。
37、本专利技术第二方面提供了一种线上培训视频录制系统,包括:
38、视频图像处理模块,用于获取对目标主体的录制视频图像,并对所述录制视频图像中的重点内容添加时间戳;
39、视频画面识别模块,用于对所述录制视频图像内每一视频帧中的所述目标主体进行识别,得到第一视频画面;
40、视频图像去噪模块,用于通过预设神经网络模型提取所述第一视频画面的特征,并基于所述特征对所述录制视频图像进行去噪处理,得到高清录制视频图像画面;
41、第一视频生成模块,用于将所述高清录制视频图像画面按照时间顺序组合,得到高清录制视频;
42、第二视频生成模块,用于根据所述时间戳在所述高清录制视频内插入分屏节点及其对应的副画面,得到视频录制结果,所述副画面包括所述重点内容对应的辅助内容。
43、相比于现有技术,本专利技术实施例的有益效果在于以下所述中的至少一点:
44、(1)本申请通过对目标主体的录制视频图像进行捕捉,并在重要内容处添加时间戳以便于后续处理;利用预设神经网络模型对视频中的每一帧中目标主体的画面进行特征提取,并基于这些特征进行去噪处理,以提升视频画面的清晰度;将本文档来自技高网...
【技术保护点】
1.一种线上培训视频录制方法,其特征在于,包括:
2.根据权利要求1所述的一种线上培训视频录制方法,其特征在于,所述预设神经网络模型包括深度残差网络层、第一卷积神经网络层、循环神经网络层、第二卷积神经网络层、第三卷积神经网络层和第四卷积神经网络层。
3.根据权利要求2所述的一种线上培训视频录制方法,其特征在于,所述通过预设神经网络模型提取所述第一视频画面的特征,并基于所述特征对所述录制视频图像进行去噪处理,得到高清录制视频图像画面,包括:
4.根据权利要求1所述的一种线上培训视频录制方法,其特征在于,所述时间戳包括开始时间和结束时间;
5.根据权利要求4所述的一种线上培训视频录制方法,其特征在于,所述在所述时间戳对应的帧上,创建新的视频帧并添加所述主视频帧和所述副视频帧,得到新融合视频帧,包括:
6.根据权利要求1所述的一种线上培训视频录制方法,其特征在于,所述根据所述时间戳在所述高清录制视频内插入分屏节点及其对应的副画面,得到视频录制结果之后,还包括:
7.根据权利要求6所述的一种线上培训视频录制方法,其特
8.根据权利要求7所述的一种线上培训视频录制方法,其特征在于,所述从所述第二视频画面中选取符合预设条件的目标视频画面,得到目标画面列表,包括:
9.根据权利要求1所述的一种线上培训视频录制方法,其特征在于,所述从所述第二视频画面中选取符合预设条件的目标视频画面,得到目标画面列表,包括:
10.一种线上培训视频录制系统,其特征在于,包括:
...【技术特征摘要】
1.一种线上培训视频录制方法,其特征在于,包括:
2.根据权利要求1所述的一种线上培训视频录制方法,其特征在于,所述预设神经网络模型包括深度残差网络层、第一卷积神经网络层、循环神经网络层、第二卷积神经网络层、第三卷积神经网络层和第四卷积神经网络层。
3.根据权利要求2所述的一种线上培训视频录制方法,其特征在于,所述通过预设神经网络模型提取所述第一视频画面的特征,并基于所述特征对所述录制视频图像进行去噪处理,得到高清录制视频图像画面,包括:
4.根据权利要求1所述的一种线上培训视频录制方法,其特征在于,所述时间戳包括开始时间和结束时间;
5.根据权利要求4所述的一种线上培训视频录制方法,其特征在于,所述在所述时间戳对应的帧上,创建新的视频帧并添加所述主视频帧和所述...
【专利技术属性】
技术研发人员:吴育,陈建韶,
申请(专利权)人:广州蓝梵信息科技股份有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。