一种基于制造技术

技术编号:39679329 阅读:15 留言:0更新日期:2023-12-11 18:57
本发明专利技术公开了一种基于

【技术实现步骤摘要】
一种基于CNN算法的短视频智能制作方法


[0001]本专利技术属于短视频智能制作方法领域,尤其涉及一种基于
CNN
算法的短视频智能制作方法


技术介绍

[0002]随着社交媒体和在线视频平台的快速发展,短视频在互联网和移动设备上的流行程度不断增加

越来越多的用户喜欢制作和分享自己的短视频作品,以展示生活

记录趣事或传达信息

然而,对于大多数用户来说,制作高质量

具有专业效果的短视频仍然具有挑战性

目前,市场上存在许多短视频制作工具和应用程序,但大多数依赖于用户的手动操作和编辑技能,对用户要求较高,并且缺乏智能化的制作功能

传统的短视频制作方法通常需要用户具备一定的摄影

剪辑和特效处理等技能,并且耗费大量的时间和精力

此外,这些方法往往只注重短视频的内容或风格的处理,难以实现综合性的智能制作

对于非专业用户来说,制作出具有专业质量和令人满意的短视频仍然具有一定的难度


技术实现思路

[0003]有鉴于此,本专利技术提供一种基于
CNN
算法的短视频智能制作方法,目的在于提高短视频制作效率,同时更好地满足个性化和智能化的短视频需求,为用户提供全新化的视频体验

[0004]实现上述目的,本专利技术提供的一种基于
CNN
算法的短视频智能制作方法,包括以下步骤:
[0005]S1
:收集不同类别的短视频作为训练数据,并对收集到的数据进行去噪;
[0006]S2
:基于多维
CNN
构建关键帧识别网络,对去噪后的训练数据进行关键帧识别;
[0007]S3
:基于
CNN
构建内容和风格分类网络,对关键帧进行内容和风格的分类;
[0008]S4
:根据短视频设定的内容和风格,对识别出符合要求的关键帧进行排序;
[0009]S5
:依据关键帧的排序进行帧间衔接完成短视频制作

[0010]作为本专利技术的进一步改进方法:
[0011]可选的,所述
S1
步骤中收集不同类别的短视频作为训练数据,并对收集到的数据进行去噪,包括:
[0012]收集不同类别的短视频作为训练数据,并对收集到的数据进行去噪,所述去噪流程为:
[0013]S11
:构建噪声模型:
[0014]将短视频中的每一帧分为图像块
W
,尺寸为
window
×
window
,则图像的噪声模型可表述为:
[0015][0016]其中,为图像块
W
不包含噪声的情况;
noise
为图像块
W
中的包含的随机噪声;
[0017]S12
:相似图像块时空匹配:
[0018]基于匹配算法在图像块
W
所在的帧及其相邻帧寻找相似的图像块,构建时空匹配样本集,所述匹配算法的计算方法为:
[0019][0020]其中,
Dist(s

t)
表示在空间搜索范围
s
和时间搜索范围
t
的约束内,待匹配的图像块
W
s

t
与图像块
W
的相似度;
(i

j)
表示图像块像素坐标;
[0021]S13
:基于主成分分析降噪:
[0022]将图像块
W
与匹配到的前
num
个图像构成新图像块矩阵
W


[0023][0024]其中,为
S12
中获得的相似度最高的前
num
个图像块;
[0025]计算
W

的协方差矩阵:
[0026][0027]其中,
Ω
为需要计算的协方差矩阵;表示矩阵的转置;
num+1
表示
W

中包含图像块的数目;
[0028]求解协方差矩阵的特征值和特征向量:
[0029]ΩΓ

λΓ
[0030]其中,
Γ
为特征向量;
λ
为特征值;
[0031]使用最大的特征值所对应的特征向量对
W

进行降维:
[0032][0033]其中,为最大的特征值所对应的特征向量;为去噪后的结果;
[0034]可选的,所述
S2
步骤中基于多维
CNN
构建关键帧识别网络,对去噪后的训练数据进行关键帧识别,包括:
[0035]S21
:构建关键帧识别网络的输入数据:
[0036]I

[I
k

c

...

I
k
‑1,
I
k

I
k+1

...

I
k+c
][0037]其中,
I
k
为去噪后的训练数据
I
的第
k
帧;
c
为邻域帧覆盖范围;
[0038]S22
:构建关键帧识别网络中的多维卷积层计算方式:
[0039][0040]其中,表示多维卷积层中第
u
层中像素位置为
(x

y

z)
处的计算结果;表示多维卷积层中第
u
层中卷积核在横坐标

纵坐标和通道维的序号为
(p

q

r)
处的权重;
P
u

Q
u

R
u
分别代表多维卷积层中第
u
层卷积核的长

宽以及通道总数目;
b
u
为中第
u
层中多维卷积核的偏置;
[0041]输入数据经过多维卷积层计算后输出
I
k
为关键帧的概率;
[0042]S23
:设定关键帧识别网络的损失函数:
[0043][0044]其中,为判断函数,当待识别的当前帧为关键帧时为1,否则为0;
o
为关键帧识别网络识别当前帧为关键帧的概率;
[0045]关键帧识别网络根据其设定的损失函数训练完成后,输出的结本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.
一种基于
CNN
算法的短视频智能制作方法,其特征在于,包括以下步骤:
S1
:收集不同类别的短视频作为训练数据,并对收集到的数据进行去噪;
S2
:基于多维
CNN
构建关键帧识别网络,对去噪后的训练数据进行关键帧识别;
S3
:基于
CNN
构建内容和风格分类网络,对关键帧进行内容和风格的分类;
S4
:根据短视频设定的内容和风格,对识别出符合要求的关键帧进行排序;
S5
:依据关键帧的排序进行帧间衔接完成短视频制作
。2.
根据权利要求1所述的基于
CNN
算法的短视频智能制作方法,其特征在于,所述步骤
S1
中去噪流程为:
S11
:构建噪声模型:将短视频中的每一帧分为图像块
W
,尺寸为
window
×
window
,则图像的噪声模型可表述为:其中,为图像块
W
不包含噪声的情况;
noise
为图像块
W
中的包含的随机噪声;
S12
:相似图像块时空匹配:基于匹配算法在图像块
W
所在的帧及其相邻帧寻找相似的图像块,构建时空匹配样本集,所述匹配算法的计算方法为:其中,
Dist(s,t)
表示在空间搜索范围
s
和时间搜索范围
t
的约束内,待匹配的图像块
W
s,t
与图像块
W
的相似度;
(i,j)
表示图像块像素坐标;
S13
:基于主成分分析降噪:将图像块
W
与匹配到的前
num
个图像构成新图像块矩阵
W

:其中,为
S12
中获得的相似度最高的前
num
个图像块;计算
W

的协方差矩阵:其中,
Ω
为需要计算的协方差矩阵;表示矩阵的转置;
num+1
表示
W

中包含图像块的数目;求解协方差矩阵的特征值和特征向量:
Q
Γ

λΓ
其中,
Γ
为特征向量;
λ
为特征值;使用最大的特征值所对应的特征向量对
W

进行降维:其中,为最大的特征值所对应的特征向量;
W
为去噪后的结果
。3.
根据权利要求1所述的基于
CNN
算法的短视频智能制作方法,其特征在于,所述步骤
S2
包括以下步骤:
S21
:构建关键帧识别网络的输入数据:
I

[I
k

c
,

,I
k
‑1,I
k

I
k+1
,

,I
k+c
]
其中,
I
k
为去噪后的训练数据
I
的第
k
帧;
c
为邻域帧覆盖范围;
S22
:构建关键帧识别网络中的多维卷积层计算方式:其中,表示多维卷积层中第
u
层中像素位置为
(x,y,z)
处的计算结果;表示多维卷积层中第
u
层中卷积核在横坐标

纵坐标和通道维的序号为
(p,q,r)
处的权重;
P
u

Q
u

R
u
分别代表多维卷积层中第
u
层卷积核的长

宽以及通道总数目;
b
u
为中第
u
层中多维卷积核的偏置;输入数据经过多维卷积层计算后输出
I
k
为关键帧的概率;
S23
:设定关键帧识别网络的损失函数:其中,为判断函数,当待识别的当前帧为关键帧时为1,否则为0;
o
为关键帧识别网络识别当前帧为关键帧的概率;关键帧识别网络根据其设定的损失函数训练完成后,输出的结果若大于
0.5
,则当前帧为关键帧
。4.
根据权利要求3所述的基于
CNN
算法的短视频智能制作方法,其特征在于,所述步骤
S3
中,包括:基于
S2
获得的关键帧,进一步将其送入基于
CNN
构建的内容和风格分...

【专利技术属性】
技术研发人员:杨剑赵超邹荣跃李雅琳黄艳妮杨娟鲁一丁
申请(专利权)人:湖南广播影视集团有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1